生成式AI快速發展,記憶體技術成為推動這一技術突破的關鍵。生成式 AI 的模型訓練與推理需要高速、高頻寬及低延遲的記憶體解決方案,以即時處理海量數據。因此,記憶體性能的提升已成為支撐這些應用的核心要素。
Counterpoint研究指出,傳統 DRAM 在頻寬和延遲方面逐漸難以滿足生成式 AI 的需求。而高頻寬記憶體(HBM)因其使用矽穿孔技術(Through-Silicon Via, TSV)堆疊 DRAM 的設計,不僅顯著提升了運算效率,還成為高效能運算領域的重要技術突破。HBM 提供了遠超傳統 DRAM 的頻寬,但高成本仍是其推廣的一大挑戰。
先進封裝技術如 3D-IC 和 CoWoS(Chip-on-Wafer-on-Substrate)在降低延遲與能耗方面展現了卓越的效果,同時有效控制了成本與體積,特別適合空間和資源受限的智慧型手機市場。這些技術不僅提升了記憶體與處理器的整合度,也為未來的生成式 AI 應用鋪平了道路。
生成式 AI 的發展速度使得未來模型的類型和數量難以準確預測。然而,透過持續推動支援架構的創新與生態系統建設,記憶體技術將能靈活應對未來的不確定性。
生成式 AI 模型(如大型語言模型 LLM、大型視覺模型 LVM 等)對記憶體的需求涵蓋了訓練和推理兩大場景。在訓練過程中,需要高頻寬記憶體處理龐大的數據集;而在推理過程中,低延遲記憶體則是實現即時決策的關鍵。
目前,DRAM 因其在成本與性能之間的平衡,仍是 AI 系統中應用最廣泛的記憶體類型。然而,隨著 AI 模型的複雜性與規模不斷增加,3D-IC 和 CoWoS 等先進封裝技術的應用正在快速擴展,以滿足生成式 AI 的高效能需求。
展望2025年, Counterpoint認為,HBM 憑藉其層疊設計和超高頻寬,成為 AI 和伺服器系統中的核心記憶體技術。未來,通過縮小 DRAM 製程節點並增加層疊數量,HBM 的容量與性能將進一步提升,以滿足生成式 AI 和深度學習對高效能計算的需求。
記憶體處理器融合技術(Processor In Memory, PIM)將數據處理功能直接整合至記憶體層,有效減少處理器與記憶體之間的數據傳輸瓶頸。此技術能顯著提升 AI 應用在高頻寬與低延遲性能方面的表現,為未來記憶體創新提供了新的方向。
生成式 AI 的快速發展對記憶體技術提出了前所未有的要求。從 HBM 到 3D-IC 再到 PIM 技術,這些創新正在重新定義記憶體的角色與價值。到 2027 年,隨著半導體製程進一步進入 2nm 以下,先進記憶體技術預計將在智慧型手機等移動裝置中廣泛採用,全面支撐生成式 AI 的應用需求。