Google Cloud與NVIDIA今(30)日宣布推出新的人工智慧(AI)基礎架構和軟體,提供客戶建立和部署大規模的生成式AI模型,並加速資料科學工作負載。
|
Google Cloud與NVIDIA擴展合作夥伴關係,推出新的AI基礎架構和軟體,協助客戶建立和部署大規模生成式AI模型。 |
在Google Cloud Next的一場爐邊對談中,Google Cloud執行長Thomas Kurian與NVIDIA創辦人暨執行長黃仁勳討論了合作夥伴關係如何將端到端的機器學習(ML)服務帶給全球最大型的AI客戶,包括在基於NVIDIA技術建構的Google Cloud服務中,使運行AI超級電腦變得更加容易。新的軟硬體整合使用了過去兩年來Google DeepMind和Google研究團隊所使用的相同NVIDIA技術。
黃仁勳表示:「我們正處於一個加速運算和生成式相結合的轉折點,以前所未有的速度推動創新。我們與Google Cloud的擴大合作將幫助開發人員加速他們在基礎架構、軟體和服務等方面的工作,從而提高能源效率並降低成本。」
Kurian表示:「許多Google產品都是基於NVIDIA GPU建構和提供服務的,我們許多客戶正在尋求NVIDIA的加速運算,以高效開發大型語言模型,從而推動生成式AI發展。」
Google用於建立大型語言模型(LLM)的PaxML架構,如今已經優化得以支援NVIDIA加速運算。
為了跨越多個Google TPU加速器切片而構建的PaxML,現在使開發人員能夠使用NVIDIA H100和A100 Tensor Core GPU進行先進且完全可配置的實驗和規模。NVIDIA NGC軟體目錄中即刻起提供GPU優化的PaxML容器。此外,PaxML在JAX上運行,JAX已針對利用OpenXLA編譯器的GPU進行優化。
Google DeepMind和其他Google研究人員是首批使用PaxML與NVIDIA GPU進行探索性研究的團隊。
NVIDIA NGC容器登錄服務中將立即提供用於PaxML的NVIDIA優化容器,提供全球正在構建新一代AI應用的研究人員、新創公司和企業使用。此外,Google透過Google Dataproc服務將無伺服器Spark與NVIDIA GPU整合。這將幫助資料科學家加速Apache Spark的工作負載,以準備進行AI開發所需的資料。