生成式AI快速发展,记忆体技术成为推动这一技术突破的关键。生成式 AI 的模型训练与推理需要高速、高频宽及低延迟的记忆体解决方案,以即时处理海量数据。因此,记忆体性能的提升已成为支撑这些应用的核心要素。
Counterpoint研究指出,传统 DRAM 在频宽和延迟方面逐渐难以满足生成式 AI 的需求。而高频宽记忆体(HBM)因其使用矽穿孔技术(Through-Silicon Via, TSV)堆叠 DRAM 的设计,不仅显着提升了运算效率,还成为高效能运算领域的重要技术突破。HBM 提供了远超传统 DRAM 的频宽,但高成本仍是其推广的一大挑战。
先进封装技术如 3D-IC 和 CoWoS(Chip-on-Wafer-on-Substrate)在降低延迟与能耗方面展现了卓越的效果,同时有效控制了成本与体积,特别适合空间和资源受限的智慧型手机市场。这些技术不仅提升了记忆体与处理器的整合度,也为未来的生成式 AI 应用铺平了道路。
生成式 AI 的发展速度使得未来模型的类型和数量难以准确预测。然而,透过持续推动支援架构的创新与生态系统建设,记忆体技术将能灵活应对未来的不确定性。
生成式 AI 模型(如大型语言模型 LLM、大型视觉模型 LVM 等)对记忆体的需求涵盖了训练和推理两大场景。在训练过程中,需要高频宽记忆体处理庞大的数据集;而在推理过程中,低延迟记忆体则是实现即时决策的关键。
目前,DRAM 因其在成本与性能之间的平衡,仍是 AI 系统中应用最广泛的记忆体类型。然而,随着 AI 模型的复杂性与规模不断增加,3D-IC 和 CoWoS 等先进封装技术的应用正在快速扩展,以满足生成式 AI 的高效能需求。
展??2025年, Counterpoint认为,HBM 凭藉其层叠设计和超高频宽,成为 AI 和伺服器系统中的核心记忆体技术。未来,通过缩小 DRAM 制程节点并增加层叠数量,HBM 的容量与性能将进一步提升,以满足生成式 AI 和深度学习对高效能计算的需求。
记忆体处理器融合技术(Processor In Memory, PIM)将数据处理功能直接整合至记忆体层,有效减少处理器与记忆体之间的数据传输瓶颈。此技术能显着提升 AI 应用在高频宽与低延迟性能方面的表现,为未来记忆体创新提供了新的方向。
生成式 AI 的快速发展对记忆体技术提出了前所未有的要求。从 HBM 到 3D-IC 再到 PIM 技术,这些创新正在重新定义记忆体的角色与价值。到 2027 年,随着半导体制程进一步进入 2nm 以下,先进记忆体技术预计将在智慧型手机等移动装置中广泛采用,全面支撑生成式 AI 的应用需求。