在大型語言模型日漸走向專有封閉的同時,OpenAI罕見推出兩款擁有完整開源權重的語言模型:gpt-oss-120b與gpt-oss-20b。此篇文章深入介紹這兩款模型的設計理念、技術架構、效能表現與應用情境,並說明這項釋出對於整個AI生態系的重大意義。
根據此篇文章,gpt-oss系列模型以強大推理能力與工具使用效能為核心,並以開放的Apache 2.0授權條款釋出,讓個人開發者、企業及研究機構皆能低門檻使用與客製化。兩款模型分別擁有1170億與210億總參數,採用Mixture of Experts技術,大幅降低運算資源需求。其中gpt-oss-120b可在單張80GB GPU上運作,gpt-oss-20b則能以僅16GB記憶體支援本地部署,極適合邊緣運算與裝置端應用。
本文章也指出,gpt-oss系列在多項標準基準測試中的表現令人矚目,不僅在HealthBench、TauBench、MMLU與AIME等測試中超越同級開源模型,甚至在某些面向上優於OpenAI自家商用模型o3-mini及o4-mini。這使得gpt-oss成為少數能在效率、安全性與效能間取得良好平衡的開源模型之一。
在模型設計上,gpt-oss採用高度優化的Transformer架構,結合稀疏注意力與旋轉位置編碼,支援長達128K的上下文長度。後訓練階段則融合監督式微調與強化學習技術,使其具備優異的指令理解、思路鏈推理(CoT)以及靈活調整推理強度(reasoning_effort)的能力。
值得注意的是,安全性是此篇文章強調的另一重點。gpt-oss模型歷經完整的安全評估與對抗式微調測試,確保即使模型被開源,其潛在風險仍可有效控管。這不僅提高使用者信賴度,也為開源模型設定了新的安全標準。文章同時提到,OpenAI還舉辦全球紅隊挑戰賽,獎金總額達50萬美元,以鼓勵外部專家共同挖掘潛在風險,並反饋至訓練流程與防護機制中。
在可用性方面,此篇文章說明這些模型現已於Hugging Face免費提供下載,並搭配Harmony提示格式與跨平台推論工具,支援在各種硬體與環境中部署使用。從雲端平台、邊緣裝置,到本地桌機與筆電,開發者皆能快速運行並進行微調。
這篇文章為讀者勾勒出一個清晰的未來藍圖:當效能與開源不再衝突,當安全性與可擴展性能共存,AI將不再只是少數企業的資源,而是人人可用、處處可部署的公共基礎設施。gpt-oss的推出,正是邁向這個願景的堅實一步。
閱讀完整文章: https://openai.com/zh-Hant/index/introducing-gpt-oss/