账号:
密码:
最新动态
产业快讯
CTIMES/SmartAuto / 新闻 /
NVIDIA发表80GB记忆体 GPU 运算效能突破2TB/s
 

【CTIMES / SMARTAUTO ABC_1 报导】    2020年11月17日 星期二

浏览人次:【3685】

NVIDIA (辉达) 宣布推出 NVIDIA A100 80GB GPU,其记忆体容量较前一代多出一倍,将为次世代的 AI 与科学研究提供倍数的效能。

/news/2020/11/17/2002047630S.jpg

NVIDIA指出, A100 搭载 HBM2e 技术,将 A100 40GB GPU 的高频宽记忆体容量加倍至 80GB,提供每秒超过 2 terabytes (TB) 的记忆体频宽。

NVIDIA 深度学习应用研究部门??总裁 Bryan Catanzaro 表示,若想获得高效能运算 (HPC) 与人工智慧 (AI) 最顶尖的研究成果,就必须建立极庞大的模型,而这也代表将会需要比过去更多的记忆体容量和传输频宽。A100 80GB GPU 提供比前一代 GPU 多一倍的记忆体容量,让研究人员能克服全球最重要的科学与大数据研究难题。

在 AI 训练方面,例如 DLRM 这类含有大量表格以记载数十亿名用户及数十亿项产品的推荐系统模型,由於 A100 80GB 能提供 3 倍的加速效果,因此企业能快速重新训练这些模型,以提供高精准度的建议。

此外,A100 80GB 还能训练最庞大的模型,透过套用更多叁数,导入到配备单一 HGX 的伺服器,例如GPT-2 ━━ 一个运用自然语言处理模型来执行超越人类的文字生成功能。如此一来就不再需要耗费大量时间建置资料或模型平行处理架构,而且这类技术在跨多个节点运行时速度过慢。

凭藉本身具备的多执行个体GPU (MIG) 技术,A100 可切分成7个GPU执行个体,而单一个体配有 10GB 的记忆体,构成安全无虞的硬体分隔区,并能为各种规模较小的作业负载提供最高的 GPU 资源使用率。对於像 RNN-T 这类自动语音辨识模型的 AI 推论,光靠一个 A100 80GB MIG 执行个体就能处理更大的批量,在生成环境中的推论吞吐量提高 1.25 倍。

在 TB 规模的零售业大数据分析基准方面,A100 80GB 能产生最高 2 倍的效能,故能针对庞大的资料集快速获得洞察,而企业则能透过这些随时更新的资料即时做出关键决策。

在诸如气象预报及量子化学等科学应用方面,A100 80GB 能提供强大的加速效果。例如像 Quantum Espresso 这款材料模拟软体,在单节点 A100 80GB 系统运行可达到接近 2 倍的资料产出量提升。

NVIDIA A100 80GB GPU 现已搭载於 NVIDIA DGXT A100 和NVIDIA DGX Station A100 系统,预计在本季开始出货。包括Atos、戴尔科技 (Dell Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、慧与科技 (Hewlett Packard Enterprise)、浪潮 (Inspur)、联想 (Lenovo)、广达 (Quanta) 和美超微 (Supermicro) 等系统大厂,预计於 2021 上半年开始提供整合四个或八个 A100 80GB GPU 基板的 HGX A100 。

關鍵字: GPU  NVIDIA 
相关新闻
美国国家实验室打造超级电脑 显示异构运算架构能满足HPC和AI双重需求
印尼科技领导者与NVIDIA合作推出国家人工智慧Sahabat-AI
NVIDIA发表新AI工具 助力机器人学习和人形机器人开发
NVIDIA AI Blueprint协助开发视觉AI代理 以提高效率、最隹化流程并创造空间
AMD携手合作夥伴扩展AI解决方案 全方位强化AI策略布局
comments powered by Disqus
相关讨论
  相关文章
» 掌握石墨回收与替代 化解电池断链危机
» SiC MOSFET:意法半导体克服产业挑战的颠覆性技术
» 超越MEMS迎接真正挑战 意法半导体的边缘AI永续发展策略
» 光通讯成长态势明确 讯号完整性一测定江山
» 分众显示与其控制技术


刊登廣告 新聞信箱 读者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 远播信息股份有限公司版权所有 Powered by O3  v3.20.1.HK8BP4NAESGSTACUK2
地址:台北数位产业园区(digiBlock Taipei) 103台北市大同区承德路三段287-2号A栋204室
电话 (02)2585-5526 #0 转接至总机 /  E-Mail: webmaster@ctimes.com.tw