帳號:
密碼:
最新動態
 
產業快訊
CTIMES/SmartAuto / 新聞 /
NVIDIA發表80GB記憶體 GPU 運算效能突破2TB/s
 

【CTIMES/SmartAuto 籃貫銘 報導】   2020年11月17日 星期二

瀏覽人次:【3663】

NVIDIA (輝達) 宣布推出 NVIDIA A100 80GB GPU,其記憶體容量較前一代多出一倍,將為次世代的 AI 與科學研究提供倍數的效能。

/news/2020/11/17/2002047630S.jpg

NVIDIA指出, A100 搭載 HBM2e 技術,將 A100 40GB GPU 的高頻寬記憶體容量加倍至 80GB,提供每秒超過 2 terabytes (TB) 的記憶體頻寬。

NVIDIA 深度學習應用研究部門副總裁 Bryan Catanzaro 表示,若想獲得高效能運算 (HPC) 與人工智慧 (AI) 最頂尖的研究成果,就必須建立極龐大的模型,而這也代表將會需要比過去更多的記憶體容量和傳輸頻寬。A100 80GB GPU 提供比前一代 GPU 多一倍的記憶體容量,讓研究人員能克服全球最重要的科學與大數據研究難題。

在 AI 訓練方面,例如 DLRM 這類含有大量表格以記載數十億名用戶及數十億項產品的推薦系統模型,由於 A100 80GB 能提供 3 倍的加速效果,因此企業能快速重新訓練這些模型,以提供高精準度的建議。

此外,A100 80GB 還能訓練最龐大的模型,透過套用更多參數,導入到配備單一 HGX 的伺服器,例如GPT-2 ── 一個運用自然語言處理模型來執行超越人類的文字生成功能。如此一來就不再需要耗費大量時間建置資料或模型平行處理架構,而且這類技術在跨多個節點運行時速度過慢。

憑藉本身具備的多執行個體GPU (MIG) 技術,A100 可切分成7個GPU執行個體,而單一個體配有 10GB 的記憶體,構成安全無虞的硬體分隔區,並能為各種規模較小的作業負載提供最高的 GPU 資源使用率。對於像 RNN-T 這類自動語音辨識模型的 AI 推論,光靠一個 A100 80GB MIG 執行個體就能處理更大的批量,在生成環境中的推論吞吐量提高 1.25 倍。

在 TB 規模的零售業大數據分析基準方面,A100 80GB 能產生最高 2 倍的效能,故能針對龐大的資料集快速獲得洞察,而企業則能透過這些隨時更新的資料即時做出關鍵決策。

在諸如氣象預報及量子化學等科學應用方面,A100 80GB 能提供強大的加速效果。例如像 Quantum Espresso 這款材料模擬軟體,在單節點 A100 80GB 系統運行可達到接近 2 倍的資料產出量提升。

NVIDIA A100 80GB GPU 現已搭載於 NVIDIA DGXT A100 和NVIDIA DGX Station A100 系統,預計在本季開始出貨。包括Atos、戴爾科技 (Dell Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、慧與科技 (Hewlett Packard Enterprise)、浪潮 (Inspur)、聯想 (Lenovo)、廣達 (Quanta) 和美超微 (Supermicro) 等系統大廠,預計於 2021 上半年開始提供整合四個或八個 A100 80GB GPU 基板的 HGX A100 。

關鍵字: GPU  NVIDIA 
相關新聞
印度機器人生態系利用NVIDIA創新 從倉儲自動化到最後一哩路配送
NVIDIA乙太網路技術加速被應用於建造全球最大AI超級電腦
2024 Arm科技論壇台北展開 推動建構運算未來的人工智慧革命
NVIDIA將生成式AI工具、模擬和感知工作流程帶入ROS開發者生態系
英特爾針對行動裝置與桌上型電腦AI效能 亮相新一代Core Ultra處理器
comments powered by Disqus
相關討論
  相關文章
» 新一代Microchip MCU韌體開發套件 : MCC Melody簡介
» 最佳化大量低複雜度PCB測試的生產效率策略
» 公共顯示技術邁向新變革
» 大眾與分眾顯示技術與應用
» 掌握多軸機器人技術:逐步指南


刊登廣告 新聞信箱 讀者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 遠播資訊股份有限公司版權所有 Powered by O3  v3.20.2048.3.149.239.236
地址:台北數位產業園區(digiBlock Taipei) 103台北市大同區承德路三段287-2號A棟204室
電話 (02)2585-5526 #0 轉接至總機 /  E-Mail: webmaster@ctimes.com.tw