米OpenAIは8月5日(現地時間)、新たなオープンウエイトの大規模言語モデル(LLM)「gpt‑oss‑120b」と「gpt‑oss‑20b」を発表した。同社がオープンウエイトモデルを公開するのは「GPT‑2」(2019年2月発表、11月に完全版公開)以来であり、約6年ぶりにオープンモデル路線に回帰した形となる。これらのモデルは、商用利用も可能なApache 2.0ライセンスの下で無償提供され、開発者や企業、研究機関などが自社のインフラ上で自由に実行、カスタマイズできる。今回の発表は、AI開発の透明性とアクセス性を高め、米国主導の民主的な価値観に基づくAIエコシステムの拡大を目指す、OpenAIの戦略的な転換を示すものとして注目される。

今回リリースされたモデルは、サイズと性能の異なる2種類が用意されている。両モデルともテキスト処理に特化しており、複雑な問題解決を可能にする高い推論能力を備え、Web検索やPythonコード実行などとの組み合わせによる「エージェント的」な活用も想定されている。

  • gpt-oss-120b:1170億パラメータを持つ大型モデルで、OpenAIの商用モデル「o4‑mini」に匹敵する推論性能を発揮する。単一のNVIDIA H100 GPUで動作するよう最適化されている。

  • gpt-oss-20b:210億パラメータを持つ軽量モデルで、「o3‑mini」と同等、あるいは一部ベンチマークではそれを上回る性能を示す。16GB以上のメモリを搭載した一般的なPCでも実行可能であり、ローカル環境での活用や迅速な開発に適している。

これらのモデルには、計算効率を高める「Mixture-of-Experts(MoE)」アーキテクチャが採用されている。これは、処理に応じて必要なパラメータのみを有効化し、計算コストを削減する技術だ。gpt-oss-120bは総パラメータ1170億のうち51億を、gpt-oss-20bは210億のうち36億をトークンごとに有効化する。

注目点として、AIが答えを導き出すまでの思考過程「Chain-of-Thought(CoT)」をそのまま公開していることが挙げられる。モデルの不適切な挙動の検出にはCoTの監視が有効とされるが、OpenAIはあえてCoTに直接的な監視や調整を加えていない。これは、モデルの誤動作や意図的な欺瞞、悪用をより正確に検知できる状態を保つためである。調整されていないCoTはハルシネーション(事実に基づかない情報の生成)や有害な表現を含む可能性があるが、非調整で公開することで、開発者や研究者がモデルの「生の思考」を観察し、CoTの監視や安全性の研究を進められる環境を提供する。

ベンチマークスコア

OpenAIによれば、gpt‑oss‑120bは、競技数学(AIME 2024・2025)、一般問題解決(MMLU)、エージェント評価(Tau-Bench)、医療領域(HealthBench)などのベンチマークにおいて、o4-miniモデルに匹敵あるいは上回る性能を示した。軽量モデルのgpt‑oss‑20bも、多くのベンチマークでo3‑miniを上回っている。

Humanity's Last Exam (HLE)では、gpt-oss-120bが19%、gpt-oss-20bは17.3%のスコアを記録した。これはDeepSeekやQwenの主要なオープンモデルを上回る結果である。

安全性への取り組みと広がるエコシステム

オープンウエイトモデルには、悪意のある第三者によって有害な目的にファインチューニングされるリスクが伴う。OpenAIはこのリスク評価のため、徹底した安全対策を実施した。

学習段階ではCBRN(化学・生物・放射性物質・核)やサイバーセキュリティに特化したデータで調整し、リリース前に、攻撃者の行動をシミュレートする「悪意のあるファインチューニング(malicious fine-tuning:MFT)」テストを実施した。その結果、モデルが悪用された場合でも、リスクは深刻なレベルには達しないことを確認したと報告している。ただし、商用や公共分野で運用する際は、開発者側の追加的な安全対策が不可欠である。

「gpt-oss」のリリースでは、NVIDIAとの提携を通じたエコシステムの拡大にも力を入れている。学習と推論にはNVIDIAのH100 GPUを中心に、最新のBlackwellアーキテクチャに最適化された設計が活かされている。大規模サーバ向けのGB200 NVL72では毎秒150万トークンという高速推論が可能であり、オンプレミス環境やAIサービスにおいて高効率な処理を実現する。また、CUDAエコシステムやTensorRT-LLMなど主要なフレームワークとの統合により、世界中の開発者コミュニティが既存の環境を活用しつつ新モデルを容易に導入可能となっている。

なぜ今オープンウエイトに回帰したのか?

ChatGPTの成功により、OpenAIは週7億人のアクティブユーザーを抱え、2025年8月時点で年間経常収益(ARR)が130億ドルに達するなど、ビジネスは好調だ。無償の高性能モデルを公開することは、こうした自身のサブスクリプションやAPIからの収益を奪う「カニバリズム(cannibalism)」を引き起こす可能性がある。

このようなリスクを取ってでもオープン化に踏み切った背景には、激化する市場競争がある。中国のDeepSeekやAlibaba、米Metaなどが次々と高性能なオープンモデルを発表し、研究者や開発者から支持を集めている。OpenAIのAPIと他社のオープンソースモデルを併用する顧客も増加しており、OpenAIも高品質なオープンモデルを提供することで、ユーザーをOpenAIのエコシステム内にとどめ、クローズドモデルとの補完的な利用を促進する狙いがあるとみられる。

さらに、AIを地政学的資産と捉え、AI開発におけるリーダーシップを確保するという米国の国家戦略とも合致する。AIモデルが世界的なインフラとなる中で、トランプ政権はその基盤を民主的な価値観に基づく米国製のものにするために、規制緩和やオープンソースAIの推進を打ち出している。OpenAIの「gpt‑oss」リリースは、その方針と歩調を合わせた動きといえる。