🔥

Qwen3公式ブログ日本語まとめ

に公開

本記事は以下の公式ブログを参考にしています。
https://qwenlm.github.io/blog/qwen3/

Qwen3リリースのお知らせ

はじめに

本日、私たちはQwenファミリーに新たに加わった最新の大規模言語モデル Qwen3 を発表できることを嬉しく思います。

フラッグシップモデル Qwen3-235B-A22B は、コーディング、数学、一般能力などのベンチマーク評価において、DeepSeek-R1、o1、o3-mini、Grok-3、Gemini-2.5-Proといったトップモデルと比較しても競争力のある結果を達成しています。

また、小型のMoEモデル Qwen3-30B-A3B は、アクティブパラメータが10倍ある QwQ-32B に対して優位に立ち、さらに小型モデル Qwen3-4B でも Qwen2.5-72B-Instruct に匹敵する性能を発揮します。


オープンウェイト提供モデル

以下のモデルをApache 2.0ライセンスのもとでオープンウェイト提供しています。

MoEモデル

モデル名 層数 ヘッド数 (Q/KV) エキスパート数 (総数/アクティブ) コンテキスト長
Qwen3-30B-A3B 48 32 / 4 128 / 8 128K
Qwen3-235B-A22B 94 64 / 4 128 / 8 128K

デンスモデル

モデル名 層数 ヘッド数 (Q/KV) 埋め込み共有 コンテキスト長
Qwen3-0.6B 28 16 / 8 あり 32K
Qwen3-1.7B 28 16 / 8 あり 32K
Qwen3-4B 36 32 / 8 あり 32K
Qwen3-8B 36 32 / 8 なし 128K
Qwen3-14B 40 40 / 8 なし 128K
Qwen3-32B 64 64 / 8 なし 128K

利用方法

Qwen3の各種モデルは、Hugging Face、ModelScope、Kaggleで公開中です。
推論にはSGLangやvLLM、ローカル利用にはOllama、LMStudio、MLX、llama.cpp、KTransformersなどが推奨されます。

ぜひ、Qwen Chat Web(chat.qwen.ai)やモバイルアプリでもQwen3をお試しください!


Qwen3の特長

ハイブリッド思考モード

Qwen3は2つの思考モードをサポートしています。

  • Thinking Mode
    ステップバイステップでじっくり推論して回答。
  • Non-Thinking Mode
    簡単な質問に即答。

これにより、タスクに応じた「思考量」のコントロールが可能になり、推論コストと品質の最適バランスが取りやすくなっています。


多言語対応

Qwen3は119言語・方言をサポート!

主な対応言語ファミリー:

  • インド・ヨーロッパ語族(英語、フランス語、ドイツ語、スペイン語、ヒンディー語など)
  • シナ・チベット語族(簡体字中国語、繁体字中国語、広東語、ビルマ語)
  • アフロ・アジア語族(アラビア語、ヘブライ語など)
  • その他(日本語、韓国語、ジョージア語、スワヒリ語など)

エージェント能力の向上

コーディング能力・エージェント能力をさらに強化し、**MCP(Multi-Component Plan)**も強力にサポート。


学習データとトレーニング

事前学習

  • データセット規模:36兆トークン(Qwen2.5の約2倍)
  • ソース:ウェブ+PDFドキュメント抽出+合成データ(数式・コード生成)
  • 3段階の学習フェーズ
    • 基礎言語能力獲得
    • STEM・コーディング・推論比率増強
    • 長文コンテキスト32K対応

パラメータ数が少ないにもかかわらず、Qwen3はQwen2.5を上回る領域もあります。


事後学習(ポストトレーニング)

4段階プロセスで、推論型と即答型のハイブリッド能力を開発しました。

  1. 長い思考連鎖(Chain of Thought)の冷スタート
  2. 推論ベースの強化学習(RL)
  3. 思考モード統合
  4. 一般タスク向けRLで仕上げ


Qwen3で開発しよう!

Hugging Faceでの簡単な利用例

from modelscope import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen3-30B-A3B"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)

prompt = "Give me a short introduction to large language model."
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=32768
)

思考モードの切り替えはenable_thinking引数で可能です。


OpenAI互換APIサーバ起動例

  • SGLangの場合:

    python -m sglang.launch_server --model-path Qwen/Qwen3-30B-A3B --reasoning-parser qwen3
    
  • vLLMの場合:

    vllm serve Qwen/Qwen3-30B-A3B --enable-reasoning --reasoning-parser deepseek_r1
    

ローカル開発には、Ollama、LMStudio、llama.cppなども活用できます。


高度な使い方

ソフトスイッチによる思考モード切り替え

プロンプトやシステムメッセージ内に

  • /think
  • /no_think

を挿入することで、対話ごとに思考モードを動的に変更できます。


エージェント活用

Qwen3はツールコールが得意です!
Qwen-Agentを使えば、ツール連携のコーディングを大幅に簡素化できます。

例:

from qwen_agent.agents import Assistant

llm_cfg = {
    'model': 'Qwen3-30B-A3B',
    'model_server': 'http://localhost:8000/v1',
    'api_key': 'EMPTY',
}

tools = [
    {'mcpServers': {
        'time': {
            'command': 'uvx',
            'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai']
        },
        "fetch": {
            "command": "uvx",
            "args": ["mcp-server-fetch"]
        }
    }},
  'code_interpreter',
]

bot = Assistant(llm=llm_cfg, function_list=tools)

Qwenを支えてくださる皆さまへ

Qwenは皆さまの支えがあってこそ存在します!
ぜひコミュニティに参加して、一緒にさらに良いものを作り上げていきましょう。


今後の展望

Qwen3は、AGI(汎用人工知能)とASI(超知能)への道を切り拓く重要なマイルストーンです。

今後は、さらに以下を目指して進化していきます。

  • データ規模の拡大
  • モデルサイズの拡大
  • コンテキスト長のさらなる延長
  • マルチモーダル対応の強化
  • 長期推論に向けたRL強化

これからもご期待ください!

Discussion