Claude Codeから OpenCode + GLM-4.7 へ移行:コストを1/7に削減する方法
はじめに
Claude Codeは強力だ。しかし、月額$200は個人開発者にとってはなかなかの出費になる。
そこで見つけたのが、OpenCode + GLM-4.7という組み合わせだ。月額わずか**$3**から始められる。
従来: Claude Code → $200/月
移行後: OpenCode + GLM-4.7 → $3/月
コスト削減率: 約98.5%(1/67)
しかも、GLM-4.7はベンチマーク上でClaude Sonnet 4.5を上回るスコアを叩き出している。コストを下げながら性能が落ちないどころか、場合によっては向上する。
OpenCodeとは
OpenCodeは、SSTが開発したオープンソースのAIコーディングエージェントだ。GitHubスター41k以上を獲得している人気プロジェクト。
特徴:
- オープンソース:完全に無料で使える
- マルチプロバイダー対応:75以上のLLMプロバイダーをサポート
- Claude Code互換:同じワークフローで使える
# インストール
curl -fsSL https://opencode.ai/install | bash
# または npm
npm install -g @opencode-ai/cli
# または Homebrew
brew install sst/tap/opencode
GLM-4.7とは
GLM-4.7は、Z.ai(旧Zhipu AI)が2025年12月にリリースしたオープンソースのコーディング特化LLMだ。
アーキテクチャ
総パラメータ: 355B (3550億)
アクティブパラメータ: 32B (320億) per forward pass
アーキテクチャ: Mixture-of-Experts (MoE)
コンテキスト長: 200,000トークン
最大出力: 128,000トークン
推論速度: 55 tokens/sec
MoE(Mixture-of-Experts)アーキテクチャにより、3550億パラメータの能力を持ちながら、推論時には320億パラメータ分のコストで動作する。これが低価格を実現する秘密だ。
Thinkingモード
GLM-4.7の特徴は3つの思考モード:
| モード | 説明 |
|---|---|
| Interleaved Thinking | 応答とツール呼び出しの前に思考 |
| Preserved Thinking | マルチターンで思考ブロックを保持・再利用 |
| Turn-level Thinking | ターンごとに思考の有効/無効を制御 |
軽量なリクエストでは思考をオフにして高速応答、複雑なタスクでは思考をオンにして深い推論、と使い分けられる。
ベンチマーク比較
GLM-4.7の性能を見てみよう:
| ベンチマーク | GLM-4.7 | 備考 |
|---|---|---|
| SWE-bench | 73.8% | オープンソースモデル最高 |
| LiveCodeBench | 84.9% | Claude Sonnet 4.5を上回る |
| τ²-Bench | 87.4% | オープンソースモデル最高 |
| AIME 2025 | 95.7% | 数学推論 |
特筆すべきはLiveCodeBench 84.9%。これはClaude Sonnet 4.5を上回るスコアだ。
価格比較
| サービス | 月額 | 備考 |
|---|---|---|
| Claude Code (Max) | $200 | Claude Opus/Sonnet |
| GLM Coding Plan | $3〜 | GLM-4.7 |
Claude-level coding at 1/7th the priceというのがZ.aiの謳い文句だが、実際のMax契約との比較では1/67のコストになる。
セットアップ手順
1. OpenCodeのインストール
curl -fsSL https://opencode.ai/install | bash
2. GLM Coding Planに加入
z.ai/subscribe にアクセスして、$3/月のプランに加入する。
3. 設定ファイルの作成
プロジェクトのルートにopencode.jsonを作成:
{
"provider": {
"name": "zai",
"model": "glm-4.7",
"apiKey": "${ZAI_API_KEY}"
}
}
環境変数を設定:
export ZAI_API_KEY="your-api-key"
4. 起動
opencode
これだけで、GLM-4.7によるAIコーディングアシスタントが使えるようになる。
Claude Codeとの互換性
GLM Coding PlanはClaude Codeと直接互換がある。つまり、Claude Codeの設定でプロバイダーを変更するだけで移行できる。
サポートツール:
- Claude Code
- Cline
- OpenCode
- Roo Code
- Kilo Code
既存のワークフローをほぼそのまま維持できるのは大きなメリットだ。
実際に使ってみた感想
移行してから数日使ってみた感想:
良い点
- 速い: 推論速度55 tokens/secは体感でも速い
- コード品質: Ruby、TypeScript、Pythonで問題なく動作
- 長いコンテキスト: 200kトークンは大規模リファクタリングに便利
- コスト: $3/月は気兼ねなく使える
気になった点
- 日本語: 英語に比べて日本語の精度がやや落ちる(コメント等)
- 最新情報: 2025年12月リリースなので、まだコミュニティの情報が少ない
総合的には、コーディングタスクに限れば十分実用的という印象だ。
ローカル実行も可能
GLM-4.7はオープンソースなので、ローカルで実行することもできる。
# HuggingFaceからモデルをダウンロード
# https://huggingface.co/zai-org/GLM-4.7
# vLLM or SGLangでの推論
pip install vllm
ローカル実行なら完全無料で使える。ただし、355Bパラメータ(MoEなので実質32B)のモデルなので、それなりのGPUリソースは必要だ。
まとめ
Before: Claude Code $200/月
After: OpenCode + GLM-4.7 $3/月
削減額: $197/月(年間 $2,364)
GLM-4.7は:
- ベンチマークでClaude Sonnet 4.5を上回る性能
- 200kトークンのロングコンテキスト
- MoEアーキテクチャによる効率的な推論
- $3/月という圧倒的低価格
コストを98%以上削減しながら、性能は維持(場合によっては向上)できる。個人開発者やスタートアップには特におすすめの選択肢だ。
まずは$3のGLM Coding Planから試してみてほしい。
Discussion