GenUをClaude Haiku 4.5対応にする
はじめに
プログデンスの圓佛です。Claude Haiku 4.5がリリースされ、早速GenUでもサポートされました。
今回はGenUでClaude Haiku 4.5を有効化する設定を説明します。
Claude Haiku 4.5の性能
Anthropic公式のリリース記事であるIntroducing Claude Haiku 4.5によると、Haiku 4.5のSoftware engineering性能は以下の位置づけがされています。ちょうど「Sonnet 4.5」と「Sonnet 4」の中間に位置付けられています。
ベンチマーク性能は以下のように記載されています。Agentic Code値はSonnet 4より高い値が書かれていますが、他の項目は必ずしも「Haiku 4.5が有利」なわけでは無く、「Sonnet 4の方が高い」値もあります。
Artificial AnalysisのComparison of Models: Intelligence, Performance & Price Analysisには以下のように書かれています。Haiku 4.5は決してトップ性能では無いものの、それなりに高いポジションに位置付けられています。
Haiku 4.5の料金
料金情報に関してはClaude Developer PlatformのPricingには以下の記載があります。ここまで見たように「Haiku 4.5はSonnet 4.5ほどでは無いものの、それなりの性能」と評価されているようですが、料金は「Sonnet 4.5の1/3」と、かなりリーズナブルであることが分かります。
Model | Base Input Tokens | 5m Cache Writes | 1h Cache Writes | Cache Hits & Refreshes | Output Tokens |
---|---|---|---|---|---|
Claude Opus 4.1 | $15 / MTok | $18.75 / MTok | $30 / MTok | $1.50 / MTok | $75 / MTok |
Claude Opus 4 | $15 / MTok | $18.75 / MTok | $30 / MTok | $1.50 / MTok | $75 / MTok |
Claude Sonnet 4.5 | $3 / MTok | $3.75 / MTok | $6 / MTok | $0.30 / MTok | $15 / MTok |
Claude Sonnet 4 | $3 / MTok | $3.75 / MTok | $6 / MTok | $0.30 / MTok | $15 / MTok |
Claude Sonnet 3.7 | $3 / MTok | $3.75 / MTok | $6 / MTok | $0.30 / MTok | $15 / MTok |
Claude Sonnet 3.5 (deprecated) | $3 / MTok | $3.75 / MTok | $6 / MTok | $0.30 / MTok | $15 / MTok |
Claude Haiku 4.5 | $1 / MTok | $1.25 / MTok | $2 / MTok | $0.10 / MTok | $5 / MTok |
Claude Haiku 3.5 | $0.80 / MTok | $1 / MTok | $1.6 / MTok | $0.08 / MTok | $4 / MTok |
Claude Opus 3 (deprecated) | $15 / MTok | $18.75 / MTok | $30 / MTok | $1.50 / MTok | $75 / MTok |
Claude Haiku 3 | $0.25 / MTok | $0.30 / MTok | $0.50 / MTok | $0.03 / MTok | $1.25 / MTok |
GenUをHaiku 4.5対応に設定する
GenUの画面左下、歯車マークをクリックすると以下のように表示されます。現時点のGenUは最新がバージョン5.2.0ですが、GenU 5.2.0より後にHaiku 4.5がリリースされた為、Haiku 4.5を利用する為には最新のGenUを取得する必要があります。
GenUのアップデート手順は過去、AWS GenUをアップデートするにまとめました。基本的な手順はこの記事の通りですが、packages/cdk/cdk.json
を以下のように修正します。具体的には「us.anthropic.claude-haiku-4-5-20251001-v1:0
」行を追加しました。
(私の環境では高コストを避ける為、Opusは無効化しています)
変更前
"modelIds": [
"us.anthropic.claude-sonnet-4-5-20250929-v1:0",
"us.anthropic.claude-sonnet-4-20250514-v1:0",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0",
"us.anthropic.claude-3-5-haiku-20241022-v1:0",
"us.amazon.nova-premier-v1:0",
"us.amazon.nova-pro-v1:0",
"us.amazon.nova-lite-v1:0",
"us.amazon.nova-micro-v1:0",
"us.deepseek.r1-v1:0"
],
変更後
"modelIds": [
"us.anthropic.claude-sonnet-4-5-20250929-v1:0",
"us.anthropic.claude-haiku-4-5-20251001-v1:0",
"us.anthropic.claude-sonnet-4-20250514-v1:0",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0",
"us.anthropic.claude-3-5-haiku-20241022-v1:0",
"us.amazon.nova-premier-v1:0",
"us.amazon.nova-pro-v1:0",
"us.amazon.nova-lite-v1:0",
"us.amazon.nova-micro-v1:0",
"us.deepseek.r1-v1:0"
],
Haiku 4.5を利用する
これでHaiku 4.5が有効化されました。今回の設定例ではpackages/cdk/cdk.json
のmodelIds
の二番目(一番上はSonnet 4.5)に設定した為、基盤モデル選択ドロップダウンの上から二番目にHaiku 4.5が表示されています。
ナレッジ・カットオフのタイミング
LLMを作成する際、学習された訓練データの期限を「ナレッジ・カットオフ」と言います。LLMは学習したデータに基づいて回答しますので、「知らないことは答えられない」ことになります。その為、「LLMの訓練データに含まれていない、新しい情報に基づいて回答させたい」と言った場合は別の仕組みを用いる必要があります。Anthropic公式のモデル概要には以下の記載がありました。
機能 | Claude Sonnet 4.5 | Claude Haiku 4.5 | Claude Opus 4.1 |
---|---|---|---|
説明 | 複雑なエージェントとコーディング向けの最も賢いモデル | フロンティアに近いインテリジェンスを備えた最速モデル | 特殊な推論タスク向けの例外的なモデル |
Claude API ID | claude-sonnet-4-5-20250929 |
claude-haiku-4-5-20251001 |
claude-opus-4-1-20250805 |
Claude APIエイリアス | claude-sonnet-4-5 |
claude-haiku-4-5 |
claude-opus-4-1 |
AWS Bedrock ID | anthropic.claude-sonnet-4-5-20250929-v1:0 |
anthropic.claude-haiku-4-5-20251001-v1:0 |
anthropic.claude-opus-4-1-20250805-v1:0 |
GCP Vertex AI ID | claude-sonnet-4-5@20250929 |
claude-haiku-4-5@20251001 |
claude-opus-4-1@20250805 |
価格 | $3 / input MTok, $15 /output MTok | $1 / input MTok, $5 /output MTok | $15 / input MTok, $75 /output MTok |
拡張思考 | はい | はい | はい |
優先度ティア | はい | はい | はい |
比較レイテンシ | 高速 | 最速 | 中程度 |
コンテキストウィンドウ | 200Kトークン / 1Mトークン | 200Kトークン | 200Kトークン |
最大出力 | 64Kトークン | 64Kトークン | 32Kトークン |
信頼できるナレッジカットオフ | 2025年1月4 | 2025年2月 | 2025年1月4 |
トレーニングデータカットオフ | 2025年7月 | 2025年7月 | 2025年3月 |