DeepSeek低成本打破美國壟斷? 政大副教授:NVIDIA依舊重要

DeepSeek低成本打破美國壟斷? 政大副教授:NVIDIA依舊重要
(示意圖/達志/路透社)

[周刊王CTWANT] 中國當地公司研發的DeepSeek,一問世就撼動全球業界。甚至逼得AI巨頭輝達發表聲明,美國總統川普也認為,DeepSeek的問世是敲響了美國AI產業的警鐘。而也因為如此,開始有不少人認為DeepSeek有著足以「超越」美國AI產業的能力。但政大應數系副教授蔡炎龍則認為,DeepSeek真正顛覆業界的地方,是讓民眾有機會用類似的方法,用一般電腦跑得動的小模型,打造一個完全符合民眾的需求和效能的模型出來。

蔡炎龍在FB粉絲專頁「呆一布呀 Diveai」發文表示,坊間認為 DeepSeek 能「大幅降低 AI 開發成本」的說法並不完全正確。DeepSeek的成就更多在於fine-tuning(微調,深度學習中遷移學習的一種方式),而不是從零開始訓練模型。若沒有像Llama等基礎開源模型的支持,DeepSeek本身也難以實現其功能。蔡炎龍認為,DeepSeek的貢獻在於如何高效利用已有模型,並精確調整以適應特定需求。

其次,目前網路也有謠傳DeepSeek完全依賴純強化學習(Reinforcement Learning),並結合了「冷啟動」技術。蔡炎龍認為這說法同樣有誤。強化學習在DeepSeek的訓練過程中雖然扮演關鍵角色,但模型的性能仍需透過初始的真人範例(冷啟動)進一步穩定。

蔡炎龍解釋,實際上DeepSeek確實提出一項新的強化學習技術GRPO(Gradient Policy Optimization),這是對OpenAI的PPO(Proximal Policy Optimization)方法的改進。

除此之外,雖然網路上有說法認為DeepSeek的運行不需要高性能GPU。但蔡炎龍表示,事實上DeepSeek的開發仍需大量資源。但DeepSeek證明企業可以在不擁有超級電腦的情況下,透過合理設計模型和利用部分GPU,打造符合特定需求的高效AI模型。這種做法使更多中小型企業能夠參與AI開發,也讓NVIDIA等硬體供應商的市場需求保持高位。

蔡炎龍認為,DeepSeek最大的突破之一,是在模型引導能力上的提升。DeepSeek採用Chain-of-thought(CoT)的方法,將重點放在如何生成高品質的「思維」內容,而非直接回答問題。

具體來說,DeepSeek會先生成「與問題相關的邏輯推理」,再將其作為指導LLM回應的基礎。蔡炎龍認為,這種方法不僅提高了回答的準確性,也讓用戶能清楚了解模型的思考過程。

此外,DeepSeek另一大量點就是嘗試減少人類介入的訓練方法,尤其是在高品質思維生成的部分。傳統的 RLHF(Reinforcement Learning with Human Feedback)需要大量的人工標記和示範,而DeepSeek則探索如何通過設計自動化的 reward 系統,讓模型在更少人力參與的情況下學會產生良好的思考邏輯。

蔡炎龍也在文末表示「DeepSeek 有許多有趣的地方,也讓我們更知道怎麼用 LLM 方式,這才是真正的重點。」

延伸閱讀

Google新聞-PChome Online新聞


最新科技新聞
人氣科技新聞
行動版 電腦版