【跨市博弈】DeepSeek重構AI權力版圖的隱形革命
當美國商務部長雷蒙多仍在推文宣揚晶片禁令成效時,中國AI界的「特洛伊木馬」已悄然進場。一家名為DeepSeek以557萬美元的訓練成本,將大模型競賽拖入了殘酷的性價比絞殺戰。它將猶如精密運轉的技術黑箱,在算法、架構與硬體的協同創新中,悄然改寫着全球AI競賽的基礎規則。
在技術端,最常被提及的是DeepSeek的V2與V3兩代模型。V2原本就已展現將大參數模型「拆分成多個子專家」的思路,試圖以分而治之的方式,減少某些無效計算浪費。到了V3,透過DeepSeekMoE與DeepSeekMLA等核心技術,才真正把這個想法推到近乎極致。一、DeepSeekMoE架構將傳統混合專家模型(Mixture of Experts)的基礎上把專家進一步細分,改造成「專家組+通才組」的動態組合。好比將餐廳廚房重構為特種灶台與多功能料理台的矩陣——遇到川菜訂單時,僅啟用麻辣專用灶與通用炒鍋,而非點燃全部128個灶眼。這種「按需激活」策略,使V3模型的6700億參數中,單次推理僅需調用370億參數。二、DeepSeekMLA技術則直擊AI推理的「記憶體牆」難題。傳統transformer模型需為每個token存儲完整的鍵值對,如同要求圖書管理員背下整個書庫的目錄。MLA(multilateral latent attention)引入的多頭潛在注意力機制,相當於開發出智能索引系統——管理員只需記住書架區域特徵,即可快速定位目標書籍。這項革新將推理階段的記憶體佔用壓縮60%,使H800的24GB顯存能承載32k tokens的上下文窗口。
DeepSeek訓練成本的大幅下降,不只是演算法層面。DeepSeek在訓練集群上僅使用2048塊H800 GPU,卻能跑出類似H100集群規模的效果,主要是有別海外同行依賴Nvidia的CUDA生態,而直接深入PTX滙編層面重構計算流程。這種「硬體解剖級」的優化,使每塊H800晶片的132個計算單元中,有20個被專門改造成通訊協調員,將跨晶片數據延遲壓縮至3.2微秒。加上大膽採用FP8(8位元浮點)動態精度調整,在非關鍵計算環節切換至8位元模式,這使單個GPU小時的計算密度提升2.7倍,硬生生在制裁晶片上碾出超越H100的訓練效率。
當然,真正讓DeepSeek在行業內產生巨大迴響的,是其在推理與部署環節進一步推出R1系列(尤其是R1-Zero)。R1在數學推理、程式生成、基礎邏輯推斷等方面的表現,足以匹敵不少市面上付費API的高效能模型。其蒸餾技術(distillation)如同AI界的技術「吸星大法」,能從閉源模型的API輸出中提煉知識精華。這種「站在巨人肩上的追趕」,使中國企業突破技術封鎖的成本曲線陡峭下折。
至於「R1-Zero」的一大亮點,就是有別於一般大模型要依賴海量的人工標註數據才能提升推理能力,R1-Zero嘗試幾乎完全走「純強化學習」的路線,透過龐大的算力進行自我對弈式的任務訓練,最終發展出近似「自我頓悟」的能力。這種概念類似AlphaGo Zero在棋類領域的做法,卻被移植到更通用的語言推理之中,也為未來的AGI(通用人工智慧)發展奠定了基礎。
Meta開源Llama系列原是為牽制OpenAI,卻在無意間為中國公司提供了躍升跳板。而DeepSeek透過開源(或半開源)策略所形成的「開放式生態圈」正快速累積開發者和企業用戶,這將顯著挑戰目前以閉源API服務(如OpenAI、Anthropic)為中心的商業模式。這樣的趨勢不僅威脅依賴高溢價API付費的服務商,也顛覆了某些巨頭倚賴「昂貴晶片+封閉演算法」所建立的優勢地位。值得注意的是,蘋果、Meta、微軟、亞馬遜等大型科技公司若善用DeepSeek的模型優化技術或低推理成本策略,即邊緣計算設備+輕量化模型的組合。
那麼R1處於絕對領先嗎?筆者並不這麼認為;因為 OpenAI展示了o3一種更強大的推理模型,即使DeepSeek在效率方面絕對是領先者,但這與整體領先不同。
上屆的拜登政府的晶片管制本欲製造「代際時差」,卻催生出意料外的創新鏈式反應。當然,若華盛頓也將H800列入禁運名單,DeepSeek優化技術也可能淪為無用武藝。然而,這意味美國不是透過未來的創新來競爭,而是透過過去對創新的否定來競爭。是的,這可能在短期內有所幫助——但「替代路徑創新」具有強烈的外溢效應,形成更強大的去輝達化的技術矩陣。
DeepSeek的崛起預示AI競賽範式遷移。OpenAI代表的「摩天大樓模式」(堆砌算力與參數)正被「樂高積木模式」(模塊化架構+極致優化)挑戰。這次,也將重塑了全球AI競爭格局,迫使產業與政策制定者重新審視硬體依賴、開源價值與創新路徑。從長遠來看,「傑文斯悖論」(Jevons paradox)將佔據主導地位,令每個使用AI的消費者和企業將是最大的贏家。
徐立言(本欄每逢周一刊出)
www.facebook.com/hsulylab/