帳號:
密碼:
最新動態
產業快訊
CTIMES/SmartAuto / 新聞 /
NVIDIA發表80GB記憶體 GPU 運算效能突破2TB/s
 

【CTIMES/SmartAuto 籃貫銘 報導】   2020年11月17日 星期二

瀏覽人次:【3674】

NVIDIA (輝達) 宣布推出 NVIDIA A100 80GB GPU,其記憶體容量較前一代多出一倍,將為次世代的 AI 與科學研究提供倍數的效能。

/news/2020/11/17/2002047630S.jpg

NVIDIA指出, A100 搭載 HBM2e 技術,將 A100 40GB GPU 的高頻寬記憶體容量加倍至 80GB,提供每秒超過 2 terabytes (TB) 的記憶體頻寬。

NVIDIA 深度學習應用研究部門副總裁 Bryan Catanzaro 表示,若想獲得高效能運算 (HPC) 與人工智慧 (AI) 最頂尖的研究成果,就必須建立極龐大的模型,而這也代表將會需要比過去更多的記憶體容量和傳輸頻寬。A100 80GB GPU 提供比前一代 GPU 多一倍的記憶體容量,讓研究人員能克服全球最重要的科學與大數據研究難題。

在 AI 訓練方面,例如 DLRM 這類含有大量表格以記載數十億名用戶及數十億項產品的推薦系統模型,由於 A100 80GB 能提供 3 倍的加速效果,因此企業能快速重新訓練這些模型,以提供高精準度的建議。

此外,A100 80GB 還能訓練最龐大的模型,透過套用更多參數,導入到配備單一 HGX 的伺服器,例如GPT-2 ── 一個運用自然語言處理模型來執行超越人類的文字生成功能。如此一來就不再需要耗費大量時間建置資料或模型平行處理架構,而且這類技術在跨多個節點運行時速度過慢。

憑藉本身具備的多執行個體GPU (MIG) 技術,A100 可切分成7個GPU執行個體,而單一個體配有 10GB 的記憶體,構成安全無虞的硬體分隔區,並能為各種規模較小的作業負載提供最高的 GPU 資源使用率。對於像 RNN-T 這類自動語音辨識模型的 AI 推論,光靠一個 A100 80GB MIG 執行個體就能處理更大的批量,在生成環境中的推論吞吐量提高 1.25 倍。

在 TB 規模的零售業大數據分析基準方面,A100 80GB 能產生最高 2 倍的效能,故能針對龐大的資料集快速獲得洞察,而企業則能透過這些隨時更新的資料即時做出關鍵決策。

在諸如氣象預報及量子化學等科學應用方面,A100 80GB 能提供強大的加速效果。例如像 Quantum Espresso 這款材料模擬軟體,在單節點 A100 80GB 系統運行可達到接近 2 倍的資料產出量提升。

NVIDIA A100 80GB GPU 現已搭載於 NVIDIA DGXT A100 和NVIDIA DGX Station A100 系統,預計在本季開始出貨。包括Atos、戴爾科技 (Dell Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、慧與科技 (Hewlett Packard Enterprise)、浪潮 (Inspur)、聯想 (Lenovo)、廣達 (Quanta) 和美超微 (Supermicro) 等系統大廠,預計於 2021 上半年開始提供整合四個或八個 A100 80GB GPU 基板的 HGX A100 。

關鍵字: GPU  NVIDIA 
相關新聞
印尼科技領導者與NVIDIA合作推出國家人工智慧Sahabat-AI
NVIDIA發表新AI工具 助力機器人學習和人形機器人開發
NVIDIA AI Blueprint協助開發視覺AI代理 以提高效率、最佳化流程並創造空間
AMD攜手合作夥伴擴展AI解決方案 全方位強化AI策略布局
印度機器人生態系利用NVIDIA創新 從倉儲自動化到最後一哩路配送
comments powered by Disqus
相關討論
  相關文章
» SiC MOSFET:意法半導體克服產業挑戰的顛覆性技術
» 意法半導體的邊緣AI永續發展策略:超越MEMS迎接真正挑戰
» 光通訊成長態勢明確 訊號完整性一測定江山
» 分眾顯示與其控制技術
» 新一代Microchip MCU韌體開發套件 : MCC Melody簡介


刊登廣告 新聞信箱 讀者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 遠播資訊股份有限公司版權所有 Powered by O3  v3.20.2048.3.147.7.14
地址:台北數位產業園區(digiBlock Taipei) 103台北市大同區承德路三段287-2號A棟204室
電話 (02)2585-5526 #0 轉接至總機 /  E-Mail: webmaster@ctimes.com.tw