近日,DeepSeek推出的開源大型語言模型(LLMs)R1與V3引發業界廣泛關注。這兩款模型不僅在性能上表現卓越,更以極低的API成本——比ChatGPT低達96%——顛覆了傳統AI領域對高算力與巨額資金投入的依賴。這一創新不僅挑戰了現有的AI擴展法則,也對NVIDIA等資料中心相關企業的股價產生了顯著影響,甚至可能改變AI產業的未來發展方向。
傳統上,訓練高效能AI模型需要依賴龐大的算力資源和巨額資金投入,例如OpenAI和Anthropic等公司在模型開發上的投入動輒超過1億美元。然而,DeepSeek通過多項技術創新,大幅降低了訓練成本。據Counterpoint研究團隊指出,DeepSeek僅使用約2000至2048張NVIDIA H800 GPU,並額外獲取約10,000張A100 GPU,整體訓練預算約600萬美元,遠低於行業平均水平。
DeepSeek的開源模型與Meta等公司的開源AI項目共同推動了開源AI的崛起,逐步縮小了與OpenAI等專有模型的差距。開源模型的普及使得AI技術的門檻降低,競爭格局從技術領先轉向成本與可用性競爭。這一趨勢不僅對專有模型形成挑戰,也為中小型企業和研究機構提供了更多參與AI開發的機會。
值得注意的是,DeepSeek的發布時機與美國5000億美元的「星門計畫(Stargate Project)」相近,引發了業界對地緣政治因素的關注。作為中國企業,DeepSeek的成功不僅展示了技術實力,也可能在國際AI競爭中扮演重要角色。
市場震盪與未來展望
DeepSeek的高效能模型對市場產生了深遠影響。1月27日,NVIDIA股價單日暴跌近17%,市值蒸發超過5000億美元,創下美股史上最大單日跌幅。這一現象反映了市場對AI運算資源需求預期的動搖,投資人開始重新評估AI基礎設施支出的未來走向。
儘管DeepSeek在成本與技術上展現了顯著突破,其訓練成本的真實性仍受到市場質疑。業界關注其是否接受了政府補助或未披露的資源支持。然而,無論如何,DeepSeek的成功已促使產業重新思考AI發展模式,並可能對半導體與數據中心市場帶來長期影響。