Anthropic控中國AI公司「提煉」Claude模型 ! 並警告已構成國安風險
火報記者 陳銳/報導
聊天機器人 Claude 的開發商 Anthropic 表示,三家中國人工智慧公司利用 Claude 模型進行「提煉」,以提升自身模型能力,該公司指出這類行為違反服務條款,也凸顯對高階晶片實施出口管制的必要性。
Anthropic指出,涉入此行為的公司包括 DeepSeek、Moonshot 與 MiniMax,三家公司被指動用約2.4萬個虛假帳戶,與 Claude 進行超過1,600萬次互動,藉此取得模型輸出內容,用於改進自身系統,已違反Anthropic的使用規範及地區存取限制。

所謂「蒸餾」技術,是指利用較成熟、能力較強的模型輸出結果,來訓練另一個模型,使後者在推理或回答品質上快速提升,Anthropic表示,相關攻擊行為在強度與複雜度上持續升高,留給防範的時間窗口十分有限,且風險並不局限於單一企業或地區。
Anthropic並警告,經非法提煉而成的模型往往缺乏原本設計中的安全機制,若進一步被開源或廣泛散布,可能帶來重大的國家安全隱憂,因為其功能將不再受任何單一政府或企業控制。
該公司補充指出,DeepSeek的行動主要著眼於提升跨任務推理能力,並打造對政策敏感問題較少審查的替代模型;Moonshot則著重於強化推理、工具使用、程式設計與資料分析能力;MiniMax則以代理式編碼、工具調度與系統編排為主要目標,Anthropic表示,在MiniMax尚未正式公布其新模型前,公司已偵測到相關提煉行為。
本月稍早,OpenAI 也曾向美國立法者警告中國人工智慧公司試圖複製美國先進模型並用於自身訓練,Anthropic稱這些案例顯示,必須透過限制先進晶片的取得,不僅能降低直接訓練大型模型的能力,也有助於抑制不當蒸餾行為的規模。
Anthropic近期完成新一輪融資,籌得約300億美元,估值達3,800億美元,該公司強調,將持續加強對異常使用行為的監測與封鎖,同時呼籲在國際層面建立更嚴謹的技術防護與監管機制,以防止高階人工智慧能力被不當複製與擴散。
這篇文章 Anthropic控中國AI公司「提煉」Claude模型 ! 並警告已構成國安風險 最早出現於 火報。
- 記者:火報 時事新聞
- 更多寵物新聞 »
