OpenAI釋出免費開源模型gpt-oss-20b!Mac用戶可本地端操作

OpenAI在本週,正式推出其備受期待的開源模型「gpt-oss」,讓使用者得以在個人裝置上執行大型語言模型,其中「gpt-oss-20b」版本已可於搭載 Apple Silicon 的 Mac 裝置上本地運行。為AI愛好者與開發者們,提供了前所未有的實驗機會、無需依賴雲端服務,開展更多新的實驗可能。
OpenAI在本週,正式推出其備受期待的開源模型「gpt-oss」,讓使用者得以在個人裝置上執行大型語言模型,其中「gpt-oss-20b」版本已可於搭載 Apple Silicon 的 Mac 裝置上本地運行。為AI愛好者與開發者們,提供了前所未有的實驗機會、無需依賴雲端服務,開展更多新的實驗可能。
[caption id="attachment_186715" align="alignnone" width="2816"]
OpenAI在本週,正式推出其備受期待的開源模型「gpt-oss」,讓使用者得以在個人裝置上執行大型語言模型。(示意圖/AI生成)[/caption]
gpt-oss系列包含兩種版本:中型模型「gpt-oss-20b」和大型模型「gpt-oss-120b」。其中,gpt-oss-20b被認為是蘋果晶片Mac用戶可負擔的本地運算選擇。儘管該模型因資料集較小,可能比大型模型更容易出現「幻覺」(hallucination)現象,但其運作速度更快,適合具備足夠資源的Mac用戶進行探索。
延伸閱讀:
AI搶人大戰!OpenAI估值飆升5,000億美元 員工可先行變現股票
蘋果摺疊機恐延期發表?Mac-iPad混合體恐無緣2026
相較於如ChatGPT等雲端服務,本地端模型的體驗有所不同。它預設缺乏聯網功能,因此無法查詢即時網路資訊,這可能影響其回應的準確性。OpenAI建議至少需具備16GB的RAM才能順利運行gpt-oss-20b,但更多記憶體將顯著提升效能。這也是Apple近年來逐步淘汰8GB RAM Mac電腦的原因之一。
[caption id="attachment_186716" align="alignnone" width="940"]
Ollama 公開了一個與聊天完成相容的 API,因此無需進行太多更改即可使用 OpenAI SDK,並提供一個 Python 範例。(圖/取自Open AI官網)[/caption]
安裝流程上,使用者僅需先下載並安裝Ollama應用程式,接著在終端機(Terminal)中輸入指令ollama pull gpt-oss:20b來下載模型,其佔用約15GB的硬碟空間。下載完成後,即可在Ollama中選取該模型,甚至開啟飛航模式以確保所有運算均在本地進行,無需任何帳號登入。實測顯示,模型的效能與硬體資源直接相關。儘管在配備16GB RAM的MacBook Air上可以運行,但回應簡單問題可能需要數分鐘甚至更久。因此,若想獲得更流暢的體驗,升級記憶體是必要的。若欲移除模型並釋放空間,只需在終端機中輸入ollama rm gpt-oss:20b即可。
【GPT-OSS-20B 本機運行整理】
系統需求建議
項目
規格
作業系統
macOS 12 或更新版本(Apple Silicon)
記憶體(RAM)
至少 16GB,建議 32GB 以上
硬碟空間
約 15GB 用於模型
第一步:安裝 Ollama
Ollama 是一個本機模型運行器,支援 GPT-OSS
第二步:透過 Terminal 安裝模型
ollama pull gpt-oss:20b
第三步:啟動並使用模型
ollama run gpt-oss:20b
- 等待載入模型(需時間)
- 開始輸入 Prompt 試用模型!
選:啟用飛航模式(完全離線)
模型移除指令(釋出空間)
若不再需要,可使用此指令清除模型:
ollama rm gpt-oss:20b
這篇文章 OpenAI釋出免費開源模型gpt-oss-20b!Mac用戶可本地端操作 最早出現於 科技島-掌握科技新聞、科技職場最新資訊。
- 記者:Mily
- 更多科技新聞 »
