Qwen3公式ブログ日本語まとめ
本記事は以下の公式ブログを参考にしています。
Qwen3リリースのお知らせ
はじめに
本日、私たちはQwenファミリーに新たに加わった最新の大規模言語モデル Qwen3 を発表できることを嬉しく思います。
フラッグシップモデル Qwen3-235B-A22B は、コーディング、数学、一般能力などのベンチマーク評価において、DeepSeek-R1、o1、o3-mini、Grok-3、Gemini-2.5-Proといったトップモデルと比較しても競争力のある結果を達成しています。
また、小型のMoEモデル Qwen3-30B-A3B は、アクティブパラメータが10倍ある QwQ-32B に対して優位に立ち、さらに小型モデル Qwen3-4B でも Qwen2.5-72B-Instruct に匹敵する性能を発揮します。
オープンウェイト提供モデル
以下のモデルをApache 2.0ライセンスのもとでオープンウェイト提供しています。
MoEモデル
モデル名 | 層数 | ヘッド数 (Q/KV) | エキスパート数 (総数/アクティブ) | コンテキスト長 |
---|---|---|---|---|
Qwen3-30B-A3B | 48 | 32 / 4 | 128 / 8 | 128K |
Qwen3-235B-A22B | 94 | 64 / 4 | 128 / 8 | 128K |
デンスモデル
モデル名 | 層数 | ヘッド数 (Q/KV) | 埋め込み共有 | コンテキスト長 |
---|---|---|---|---|
Qwen3-0.6B | 28 | 16 / 8 | あり | 32K |
Qwen3-1.7B | 28 | 16 / 8 | あり | 32K |
Qwen3-4B | 36 | 32 / 8 | あり | 32K |
Qwen3-8B | 36 | 32 / 8 | なし | 128K |
Qwen3-14B | 40 | 40 / 8 | なし | 128K |
Qwen3-32B | 64 | 64 / 8 | なし | 128K |
利用方法
Qwen3の各種モデルは、Hugging Face、ModelScope、Kaggleで公開中です。
推論にはSGLangやvLLM、ローカル利用にはOllama、LMStudio、MLX、llama.cpp、KTransformersなどが推奨されます。
ぜひ、Qwen Chat Web(chat.qwen.ai)やモバイルアプリでもQwen3をお試しください!
Qwen3の特長
ハイブリッド思考モード
Qwen3は2つの思考モードをサポートしています。
-
Thinking Mode
ステップバイステップでじっくり推論して回答。 -
Non-Thinking Mode
簡単な質問に即答。
これにより、タスクに応じた「思考量」のコントロールが可能になり、推論コストと品質の最適バランスが取りやすくなっています。
多言語対応
Qwen3は119言語・方言をサポート!
主な対応言語ファミリー:
- インド・ヨーロッパ語族(英語、フランス語、ドイツ語、スペイン語、ヒンディー語など)
- シナ・チベット語族(簡体字中国語、繁体字中国語、広東語、ビルマ語)
- アフロ・アジア語族(アラビア語、ヘブライ語など)
- その他(日本語、韓国語、ジョージア語、スワヒリ語など)
エージェント能力の向上
コーディング能力・エージェント能力をさらに強化し、**MCP(Multi-Component Plan)**も強力にサポート。
学習データとトレーニング
事前学習
- データセット規模:36兆トークン(Qwen2.5の約2倍)
- ソース:ウェブ+PDFドキュメント抽出+合成データ(数式・コード生成)
- 3段階の学習フェーズ
- 基礎言語能力獲得
- STEM・コーディング・推論比率増強
- 長文コンテキスト32K対応
パラメータ数が少ないにもかかわらず、Qwen3はQwen2.5を上回る領域もあります。
事後学習(ポストトレーニング)
4段階プロセスで、推論型と即答型のハイブリッド能力を開発しました。
- 長い思考連鎖(Chain of Thought)の冷スタート
- 推論ベースの強化学習(RL)
- 思考モード統合
- 一般タスク向けRLで仕上げ
Qwen3で開発しよう!
Hugging Faceでの簡単な利用例
from modelscope import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen3-30B-A3B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
prompt = "Give me a short introduction to large language model."
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768
)
思考モードの切り替えはenable_thinking
引数で可能です。
OpenAI互換APIサーバ起動例
-
SGLangの場合:
python -m sglang.launch_server --model-path Qwen/Qwen3-30B-A3B --reasoning-parser qwen3
-
vLLMの場合:
vllm serve Qwen/Qwen3-30B-A3B --enable-reasoning --reasoning-parser deepseek_r1
ローカル開発には、Ollama、LMStudio、llama.cppなども活用できます。
高度な使い方
ソフトスイッチによる思考モード切り替え
プロンプトやシステムメッセージ内に
/think
/no_think
を挿入することで、対話ごとに思考モードを動的に変更できます。
エージェント活用
Qwen3はツールコールが得意です!
Qwen-Agent
を使えば、ツール連携のコーディングを大幅に簡素化できます。
例:
from qwen_agent.agents import Assistant
llm_cfg = {
'model': 'Qwen3-30B-A3B',
'model_server': 'http://localhost:8000/v1',
'api_key': 'EMPTY',
}
tools = [
{'mcpServers': {
'time': {
'command': 'uvx',
'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai']
},
"fetch": {
"command": "uvx",
"args": ["mcp-server-fetch"]
}
}},
'code_interpreter',
]
bot = Assistant(llm=llm_cfg, function_list=tools)
Qwenを支えてくださる皆さまへ
Qwenは皆さまの支えがあってこそ存在します!
ぜひコミュニティに参加して、一緒にさらに良いものを作り上げていきましょう。
今後の展望
Qwen3は、AGI(汎用人工知能)とASI(超知能)への道を切り拓く重要なマイルストーンです。
今後は、さらに以下を目指して進化していきます。
- データ規模の拡大
- モデルサイズの拡大
- コンテキスト長のさらなる延長
- マルチモーダル対応の強化
- 長期推論に向けたRL強化
これからもご期待ください!
Discussion