Google Cloud与NVIDIA今(30)日宣布推出新的人工智慧(AI)基础架构和软体,提供客户建立和部署大规模的生成式AI模型,并加速资料科学工作负载。
|
Google Cloud与NVIDIA扩展合作夥伴关系,推出新的AI基础架构和软体,协助客户建立和部署大规模生成式AI模型。 |
在Google Cloud Next的一场炉边对谈中,Google Cloud执行长Thomas Kurian与NVIDIA创办人暨执行长黄仁勋讨论了合作夥伴关系如何将端到端的机器学习(ML)服务带给全球最大型的AI客户,包括在基於NVIDIA技术建构的Google Cloud服务中,使运行AI超级电脑变得更加容易。新的软硬体整合使用了过去两年来Google DeepMind和Google研究团队所使用的相同NVIDIA技术。
黄仁勋表示:「我们正处於一个加速运算和生成式相结合的转折点,以前所未有的速度推动创新。我们与Google Cloud的扩大合作将帮助开发人员加速他们在基础架构、软体和服务等方面的工作,从而提高能源效率并降低成本。」
Kurian表示:「许多Google产品都是基於NVIDIA GPU建构和提供服务的,我们许多客户正在寻求NVIDIA的加速运算,以高效开发大型语言模型,从而推动生成式AI发展。」
Google用於建立大型语言模型(LLM)的PaxML架构,如今已经优化得以支援NVIDIA加速运算。
为了跨越多个Google TPU加速器切片而构建的PaxML,现在使开发人员能够使用NVIDIA H100和A100 Tensor Core GPU进行先进且完全可配置的实验和规模。NVIDIA NGC软体目录中即刻起提供GPU优化的PaxML容器。此外,PaxML在JAX上运行,JAX已针对利用OpenXLA编译器的GPU进行优化。
Google DeepMind和其他Google研究人员是首批使用PaxML与NVIDIA GPU进行探索性研究的团队。
NVIDIA NGC容器登录服务中将立即提供用於PaxML的NVIDIA优化容器,提供全球正在构建新一代AI应用的研究人员、新创公司和企业使用。此外,Google透过Google Dataproc服务将无伺服器Spark与NVIDIA GPU整合。这将帮助资料科学家加速Apache Spark的工作负载,以准备进行AI开发所需的资料。