近日,DeepSeek推出的开源大型语言模型(LLMs)R1与V3引发业界广泛关注。这两款模型不仅在性能上表现卓越,更以极低的API成本比ChatGPT低达96%颠覆了传统AI领域对高算力与巨额资金投入的依赖。这一创新不仅挑战了现有的AI扩展法则,也对NVIDIA等资料中心相关企业的股价产生了显着影响,甚至可能改变AI产业的未来发展方向。
传统上,训练高效能AI模型需要依赖庞大的算力资源和巨额资金投入,例如OpenAI和Anthropic等公司在模型开发上的投入动辄超过1亿美元。然而,DeepSeek通过多项技术创新,大幅降低了训练成本。据Counterpoint研究团队指出,DeepSeek仅使用约2000至2048张NVIDIA H800 GPU,并额外获取约10,000张A100 GPU,整体训练预算约600万美元,远低於行业平均水平。
DeepSeek的开源模型与Meta等公司的开源AI项目共同推动了开源AI的崛起,逐步缩小了与OpenAI等专有模型的差距。开源模型的普及使得AI技术的门槛降低,竞争格局从技术领先转向成本与可用性竞争。这一趋势不仅对专有模型形成挑战,也为中小型企业和研究机构提供了更多叁与AI开发的机会。
值得注意的是,DeepSeek的发布时机与美国5000亿美元的「星门计画(Stargate Project)」相近,引发了业界对地缘政治因素的关注。作为中国企业,DeepSeek的成功不仅展示了技术实力,也可能在国际AI竞争中扮演重要角色。
市场震荡与未来展??
DeepSeek的高效能模型对市场产生了深远影响。1月27日,NVIDIA股价单日暴跌近17%,市值蒸发超过5000亿美元,创下美股史上最大单日跌幅。这一现象反映了市场对AI运算资源需求预期的动摇,投资人开始重新评估AI基础设施支出的未来走向。
尽管DeepSeek在成本与技术上展现了显着突破,其训练成本的真实性仍受到市场质疑。业界关注其是否接受了政府补助或未披露的资源支持。然而,无论如何,DeepSeek的成功已促使产业重新思考AI发展模式,并可能对半导体与数据中心市场带来长期影响。