🐷
gpt-ossのリリースチェックして使ってみた
今回は2025年8月5日に発表されたgpt-ossについて、そのリリースノートのチェックおよび実際に使ってみた内容について共有します!
※ Ollamaなどを使ってローカルで検証した結果を共有したかったですが、今回は概要に留めておりますので次回以降然るべきタイミングで共有します
gpt-ossとは?
まず、gpt-ossのリリースノートは以下になります。
また、公式GitHubは以下になります。
gpt-ossは名前の通りオープンウェイトのリーズニングモデルであり、スペックさえ満たしていればローカルPC上で稼働させることができます。また、Google CloudのVertex AI Model Gardenをはじめとしたクラウドプロバイダの提供するモデル環境でも続々と対応がされています。
今回発表されたgpt-ossについて、リリースノートの内容をまとめてみます!
モデル概要
- gpt-oss-120bとgpt-oss-20bの2つがリリース
- 名前の通り、それぞれ120b、20bのパラメータから構成されているので、後者の方が軽量モデルです
- 強化学習とo3その他様々な技術を組み合わせて学習されており、ほかの同レベルのオープンモデルと比較して良い性能を発揮
- ライセンスはApache 2.0であり、コピーレフト制約や特許リスクなしにカスタマイズや商用展開が可能
- CoTやStructured Outputなど従来のLLMに要求される様々な仕組みにも対応
- 安全性にも対処されており、敵対的ファインチューニングなどを用いて安全性を追求
- 推論エフォートの設定:特定のユースケースやレイテンシのニーズに合わせて、推論エフォート(低、中、高)を簡単に調整可能
- Chain of Thoughtの構築:モデルの推論プロセスに完全にアクセスできるため、デバッグが容易になり出力の信頼性が向上
- パラメータ微調整が可能:特定のユースケースに合わせてモデルを完全にカスタマイズ可能
- エージェント機能:関数呼び出し、Web ブラウジング、Python コード実行、構造化出力など、モデルのネイティブ機能を使用かのう
- MXFP4量子化:モデルはMoE重みのMXFP4量子化を用いて後学習され、gpt-oss-120bは80GBのシングルGPU(NVIDIA H100やAMD MI300Xなど)で実行され、gpt-oss-20bモデルは16GBのメモリ内で実行。すべての評価は、同じMXFP4量子化
事前学習・アーキテクチャ・事後学習
- mixture-of-experts手法を利用しパラメータ数の削減を達成
- 最大128kのコンテキスト長の処理が可能
- STEMやコーディング、一般知識に重点を置いた高品質で主に英語のテキスト専用のデータセットでモデルを学習させたとのこと
- 英語主体の学習であれば日本語に関してはベンチマークスコアを少し下回るかも?しれませんね
- o4-miniと同じ手法を用いて事後学習を適用
安全性について
- 事前学習では化学、生物、放射線、核(CBRN)に関連する特定の有害なデータを除外した
- 事後学習では熟慮的アライメントと指示階層を用いて、安全でないプロンプトを拒否しつつプロンプトインジェクション対策をしているとのこと
利用方法
私がすぐに実行できる環境は以下となっています。
- ローカル:Ollama、LM Studio
- クラウド:Google Cloud Vertex AI Model Garden、AWS Bedrock、build.nvidia.com
- huggingface
build.nvidia.comで実行した例は以下で公開していますので、併せてご覧ください。
また、gpt-ossを実行するためのプレイグラウンドがOpenAIから公開されているのでこちらも利用候補になるかと思います。
まとめ
結構遅くなりましたが、gpt-ossについて少し調べてみました。実際に利用してみた感想ですが、OSS版のモデルということでGPT-4系やGPT-5系と比べると見劣りする部分があるかもしれませんが、ローカルで動かせられるモデルとしては性能は素晴らしいのではとおもいます。ぜひ利用したことがない方は使ってみてください!
Discussion