TYAN(泰安)於美国NVIDIA 2018 GPU 技术大会 (GTC)上展出一系列支援NVIDIA Tesla V100、V100 32GB、P40、P4 PCIe介面以及NVIDIA Tesla V100 SXM2架构的 GPU加速卡伺服器平台,主要针对深度学习、人工智慧、深度神经网络以及推论应用而设计。
|
TYAN展出基於最新NVIDIA Tesla技术的GPU服务器系列平台,针对深度学习、人工智慧和深度神经网络应用设计 |
善加运用伺服器中GPU加速卡间高速资料传输,能大幅提升HPC的效能运作。在机器学习和人工智慧的运算架构中,典型的工作负载需要在GPU卡记忆体间进行频繁的资料传输,透过极低延迟和最大化的频宽设计,实现最隹的系统运作性能。采用NVIDIA NVLink技术封装的GPU卡,在GPU相互传输时共提供150GB/s单向频宽(300GB/s双向频宽),几??是标准PCIe介面GPU加速卡的10倍。TYAN Thunder HX TA88-B7107产品,采用NVIDIA NVLink的技术架构,在2U伺服器空间中支援8张NVIDIA Tesla V100 SXM2 GPU加速卡,同时配置4组PCIe x 16及24个DDR4 DIMM??槽功能,能分别提供高速连网及最高达3TB记忆空间,让TA88-B7107并列为市场上具备最高运算效能的GPU伺服器。
TYAN也同时展出PCIe介面的GPU伺服器,展品包括支援最新双倍记忆体容量的NVIDIA Tesla V100 32GB及支援P40及P4 PCIe架构的GPU加速器。其中,展出的4U伺服器系统Thunder HX FT77D-B7109,最高能支援8张GPU卡,适合运用於复杂的大量平行运算应用,例如科学计算及大规模的人脸识别;而另一台Thunder HX FA77-B7119,在单一伺服器架构中最高支援10张GPU卡,此系统能满足虚拟化环境中同时运作多元化工作的需求。
两款支援4 张NVIDIA Tesla V100 32GB GPU加速卡的 1U伺服器,包括 Thunder HX GA88-B5631支援Intel Xeon Scalable Processor,另一款Transport HX GA88-B8021是以AMD EPYC 处理器为设计基础,皆是市场上供应高密度GPU伺服器的业界首选。使用者可藉由系统额外提供的一组PCIe x16??槽安装高速网路卡,可支援传送速率高达100Gb/s的EDR InfiniBand或100Gb乙太网路。两个平台非常适用於人工智慧、机器学习及深度神经网络等工作负载。此外,GA88-B8021平台在配载最高6张NVIDIA Tesla P4 GPU加速卡後,则适用於推论应用场景。
神云科技泰安产品事业体??总经理许言闻指出,目前AI智能化正在改变每个产业,藉由即时海量资讯收集,能提供更精准的决策,而藉由我们提供给客户的高效能GPU运算平台,TYAN领先的GPU服务器平台系列基於最新的NVIDIA Tesla技术,经过优化设计满足市场需求,能为下一代的AI革命提供更快的整体性能,更隹的效能、以及更低单位的计算能耗和成本。
NVIDIA 加速运算产品群产品行销经理Paresh Kharya认为,NVIDIA GPU运算平台是现代AI的核心引擎,能协助加速主要深度学习的架构,透过TYAN已搭载NVIDIA Tesla V100 32GB GPU加速卡的伺服器平台,可提供两倍的记忆体容量,同时让深度及精准的AI模型结果提高50%速度。