🚀

Claude Codeから OpenCode + GLM-4.7 へ移行:コストを1/7に削減する方法

に公開

はじめに

Claude Codeは強力だ。しかし、月額$200は個人開発者にとってはなかなかの出費になる。

そこで見つけたのが、OpenCode + GLM-4.7という組み合わせだ。月額わずか**$3**から始められる。

従来: Claude Code → $200/月
移行後: OpenCode + GLM-4.7 → $3/月

コスト削減率: 約98.5%(1/67)

しかも、GLM-4.7はベンチマーク上でClaude Sonnet 4.5を上回るスコアを叩き出している。コストを下げながら性能が落ちないどころか、場合によっては向上する。

OpenCodeとは

OpenCodeは、SSTが開発したオープンソースのAIコーディングエージェントだ。GitHubスター41k以上を獲得している人気プロジェクト。

特徴:

  • オープンソース:完全に無料で使える
  • マルチプロバイダー対応:75以上のLLMプロバイダーをサポート
  • Claude Code互換:同じワークフローで使える
# インストール
curl -fsSL https://opencode.ai/install | bash

# または npm
npm install -g @opencode-ai/cli

# または Homebrew
brew install sst/tap/opencode

GLM-4.7とは

GLM-4.7は、Z.ai(旧Zhipu AI)が2025年12月にリリースしたオープンソースのコーディング特化LLMだ。

アーキテクチャ

総パラメータ: 355B (3550億)
アクティブパラメータ: 32B (320億) per forward pass
アーキテクチャ: Mixture-of-Experts (MoE)
コンテキスト長: 200,000トークン
最大出力: 128,000トークン
推論速度: 55 tokens/sec

MoE(Mixture-of-Experts)アーキテクチャにより、3550億パラメータの能力を持ちながら、推論時には320億パラメータ分のコストで動作する。これが低価格を実現する秘密だ。

Thinkingモード

GLM-4.7の特徴は3つの思考モード:

モード 説明
Interleaved Thinking 応答とツール呼び出しの前に思考
Preserved Thinking マルチターンで思考ブロックを保持・再利用
Turn-level Thinking ターンごとに思考の有効/無効を制御

軽量なリクエストでは思考をオフにして高速応答、複雑なタスクでは思考をオンにして深い推論、と使い分けられる。

ベンチマーク比較

GLM-4.7の性能を見てみよう:

ベンチマーク GLM-4.7 備考
SWE-bench 73.8% オープンソースモデル最高
LiveCodeBench 84.9% Claude Sonnet 4.5を上回る
τ²-Bench 87.4% オープンソースモデル最高
AIME 2025 95.7% 数学推論

特筆すべきはLiveCodeBench 84.9%。これはClaude Sonnet 4.5を上回るスコアだ。

価格比較

サービス 月額 備考
Claude Code (Max) $200 Claude Opus/Sonnet
GLM Coding Plan $3〜 GLM-4.7

Claude-level coding at 1/7th the priceというのがZ.aiの謳い文句だが、実際のMax契約との比較では1/67のコストになる。

セットアップ手順

1. OpenCodeのインストール

curl -fsSL https://opencode.ai/install | bash

2. GLM Coding Planに加入

z.ai/subscribe にアクセスして、$3/月のプランに加入する。

3. 設定ファイルの作成

プロジェクトのルートにopencode.jsonを作成:

{
  "provider": {
    "name": "zai",
    "model": "glm-4.7",
    "apiKey": "${ZAI_API_KEY}"
  }
}

環境変数を設定:

export ZAI_API_KEY="your-api-key"

4. 起動

opencode

これだけで、GLM-4.7によるAIコーディングアシスタントが使えるようになる。

Claude Codeとの互換性

GLM Coding PlanはClaude Codeと直接互換がある。つまり、Claude Codeの設定でプロバイダーを変更するだけで移行できる。

サポートツール:
- Claude Code
- Cline
- OpenCode
- Roo Code
- Kilo Code

既存のワークフローをほぼそのまま維持できるのは大きなメリットだ。

実際に使ってみた感想

移行してから数日使ってみた感想:

良い点

  1. 速い: 推論速度55 tokens/secは体感でも速い
  2. コード品質: Ruby、TypeScript、Pythonで問題なく動作
  3. 長いコンテキスト: 200kトークンは大規模リファクタリングに便利
  4. コスト: $3/月は気兼ねなく使える

気になった点

  1. 日本語: 英語に比べて日本語の精度がやや落ちる(コメント等)
  2. 最新情報: 2025年12月リリースなので、まだコミュニティの情報が少ない

総合的には、コーディングタスクに限れば十分実用的という印象だ。

ローカル実行も可能

GLM-4.7はオープンソースなので、ローカルで実行することもできる。

# HuggingFaceからモデルをダウンロード
# https://huggingface.co/zai-org/GLM-4.7

# vLLM or SGLangでの推論
pip install vllm

ローカル実行なら完全無料で使える。ただし、355Bパラメータ(MoEなので実質32B)のモデルなので、それなりのGPUリソースは必要だ。

まとめ

Before: Claude Code $200/月
After:  OpenCode + GLM-4.7 $3/月

削減額: $197/月(年間 $2,364)

GLM-4.7は:

  • ベンチマークでClaude Sonnet 4.5を上回る性能
  • 200kトークンのロングコンテキスト
  • MoEアーキテクチャによる効率的な推論
  • $3/月という圧倒的低価格

コストを98%以上削減しながら、性能は維持(場合によっては向上)できる。個人開発者やスタートアップには特におすすめの選択肢だ。

まずは$3のGLM Coding Planから試してみてほしい。


参考リンク

GitHubで編集を提案

Discussion