💸

OpenCode(Charm)で高コスパLLM構成を考える

に公開

最新コスト×性能データから最適なモデル構成を選ぶ

🔰 OpenCode(Charm)って何?という方へ
本記事では、OpenCode(Charm)で利用するLLMのコスパ最適構成を紹介しています。
まだOpenCode(Charm)自体を知らない方は、以下の記事で概要や使い方をチェックしてから読むとスムーズです👇
📘 Claude Code vs. OpenCode(Charm) / opencode(SST) ─ 名前衝突を整理して徹底比較


TL;DR

「性能×コスト」のバランスが優れたLLM構成を比較した結果、

  1. Google Vertex AI:Gemini 2.5 Pro+Flash
  2. DeepSeek API:DeepSeek V3
  3. OpenAI:o3(値下げ版)+ GPT-4o mini

といった構成が、最新のコスト×性能の散布図において 左上(高性能・低価格)ゾーン に位置しました。
本記事では、比較方法・データ元・実際の構成例まで詳しく紹介します。


背景:なぜ「コスパ」が重要?

OpenCode(Charm)のようなエディタ統合型のLLM活用では、月間数十万~数百万トークンの消費が当たり前です。
そのため、精度・速度・価格のバランス=コスパが、ツールとしての実用性に直結します。

  • 高性能でも価格が高ければ使いづらい
  • 安すぎても精度不足で開発効率が落ちる

そこで、開発効率を維持しつつ継続的に使いやすい構成を選ぶことが重要です。


データと比較手法

比較対象 情報源
各モデルの単価 OpenAI, Google Cloud, Azure, DeepSeek, Anthropic, Groq 公式ページ
性能評価 LM Arena WebDevスコアを使用
コスト単位 入出力ともに $ / 1K tokens で統一

比較方法の概要

  1. 2025年6月時点の価格情報をもとに、1Kトークン単位で入出力単価を算出
  2. WebDevタスクのスコアを取得(=開発用途での有用性指標)
  3. 「入力コスト vs スコア」「出力コスト vs スコア」の散布図を作成
  4. 左上に位置する構成=高コスパと定義して抽出

最新:コスト×性能の可視化マップ

✅ 入力コスト vs 性能

Input cost vs Performance

  • Gemini 2.5 Flash と DeepSeek V3 が価格面で圧倒的に優位
  • Claude系やGPT-4系は高精度だが高価格帯に位置

✅ 出力コスト vs 性能

Output cost vs Performance

  • 長文応答やコード生成では出力コストが支配的
  • Flash系の $0.0006 / K が圧倒的コスパ
  • DeepSeek も継続運用に耐える価格帯

実用的な高コスパ構成 3選(用途別)

1. Google Vertex AI — Gemini Pro+Flash の併用

"agents": {
  "coder": { "model": "gemini-2.5-pro-preview-06-05", "provider": "google", "maxTokens": 8000 },
  "task":  { "model": "gemini-2.5-flash",             "provider": "google", "maxTokens": 6000 },
  "title": { "model": "gemini-2.5-flash",             "provider": "google", "maxTokens": 80 }
}

📌 ポイント

  • 出力トークンは2025年6月時点では無料(Google公式)
  • Proは精度重視、Flashは低価格高速処理という棲み分けで最適化可能

2. DeepSeek API — 単体構成で圧倒的コスパ

"agents": {
  "coder": "deepseek-chat-v3",
  "task":  "deepseek-chat-v3",
  "title": "deepseek-chat-v3"
}

📌 ポイント

  • GPT-4 mini相当の性能を1/4以下のコストで実現
  • UTC 16:30~00:30はさらに75%割引(API公式)

3. OpenAI — o3(値下げ)+ GPT-4o mini

"agents": {
  "coder": { "model": "o3-2025-04-16", "provider": "openai", "maxTokens": 8000 },
  "task":  { "model": "gpt-4o-mini-0718", "provider": "openai", "maxTokens": 6000 },
  "title": { "model": "gpt-4o-mini-0718", "provider": "openai", "maxTokens": 80 }
}

📌 ポイント

  • o3がGPT-4.1相当の性能で80%値下げ済み(OpenAIフォーラム告知)
  • GPT-4o miniはClaude Haikuの約1/3のコスト

ケース別おすすめ構成

条件/目的 おすすめ構成
精度+速度 Gemini Pro / Flash
徹底したコスト削減 DeepSeek V3
OpenAI好き OpenAI o3+4o mini

まとめと次のアクション

  • 散布図の左上ゾーン=高性能×低価格であることが明確な3構成を紹介

  • Claude Sonnet($3/$15)と比較しても、3~25倍安いケースも

  • .opencode.json の3行変更で簡単に構成切替え可能

  • まずは無料枠または少額課金でこれらの構成をA/Bテスト

  • OpenCode(Charm)で生成されるSQLiteログをGrafanaなどで可視化すれば、トークン単価と開発効率の関係を可視化することができそう。

Discussion