TYAN(泰安)於美國NVIDIA 2018 GPU 技術大會 (GTC)上展出一系列支援NVIDIA Tesla V100、V100 32GB、P40、P4 PCIe介面以及NVIDIA Tesla V100 SXM2架構的 GPU加速卡伺服器平台,主要針對深度學習、人工智慧、深度神經網絡以及推論應用而設計。
|
TYAN展出基於最新NVIDIA Tesla技術的GPU服務器系列平台,針對深度學習、人工智慧和深度神經網絡應用設計 |
善加運用伺服器中GPU加速卡間高速資料傳輸,能大幅提昇HPC的效能運作。在機器學習和人工智慧的運算架構中,典型的工作負載需要在GPU卡記憶體間進行頻繁的資料傳輸,透過極低延遲和最大化的頻寬設計,實現最佳的系統運作性能。採用NVIDIA NVLink技術封裝的GPU卡,在GPU相互傳輸時共提供150GB/s單向頻寬(300GB/s雙向頻寬),幾乎是標準PCIe介面GPU加速卡的10倍。TYAN Thunder HX TA88-B7107產品,採用NVIDIA NVLink的技術架構,在2U伺服器空間中支援8張NVIDIA Tesla V100 SXM2 GPU加速卡,同時配置4組PCIe x 16及24個DDR4 DIMM插槽功能,能分別提供高速連網及最高達3TB記憶空間,讓TA88-B7107並列為市場上具備最高運算效能的GPU伺服器。
TYAN也同時展出PCIe介面的GPU伺服器,展品包括支援最新雙倍記憶體容量的NVIDIA Tesla V100 32GB及支援P40及P4 PCIe架構的GPU加速器。其中,展出的4U伺服器系統Thunder HX FT77D-B7109,最高能支援8張GPU卡,適合運用於複雜的大量平行運算應用,例如科學計算及大規模的人臉識別;而另一台Thunder HX FA77-B7119,在單一伺服器架構中最高支援10張GPU卡,此系統能滿足虛擬化環境中同時運作多元化工作的需求。
兩款支援4 張NVIDIA Tesla V100 32GB GPU加速卡的 1U伺服器,包括 Thunder HX GA88-B5631支援Intel Xeon Scalable Processor,另一款Transport HX GA88-B8021是以AMD EPYC 處理器為設計基礎,皆是市場上供應高密度GPU伺服器的業界首選。使用者可藉由系統額外提供的一組PCIe x16插槽安裝高速網路卡,可支援傳送速率高達100Gb/s的EDR InfiniBand或100Gb乙太網路。兩個平台非常適用於人工智慧、機器學習及深度神經網絡等工作負載。此外,GA88-B8021平台在配載最高6張NVIDIA Tesla P4 GPU加速卡後,則適用於推論應用場景。
神雲科技泰安產品事業體副總經理許言聞指出,目前AI智能化正在改變每個產業,藉由即時海量資訊收集,能提供更精準的決策,而藉由我們提供給客戶的高效能GPU運算平台,TYAN領先的GPU服務器平台系列基於最新的NVIDIA Tesla技術,經過優化設計滿足市場需求,能為下一代的AI革命提供更快的整體性能,更佳的效能、以及更低單位的計算能耗和成本。
NVIDIA 加速運算產品群產品行銷經理Paresh Kharya認為,NVIDIA GPU運算平台是現代AI的核心引擎,能協助加速主要深度學習的架構,透過TYAN已搭載NVIDIA Tesla V100 32GB GPU加速卡的伺服器平台,可提供兩倍的記憶體容量,同時讓深度及精準的AI模型結果提高50%速度。