AWS Bedrockモデルの選び方:Claude、Titan、Nova

に公開

こんにちは。株式会社ナレッジラボでAIエンジニアをしております、ダンと申します。
私たちは、社内に散在する経営データの集計・分析・管理を支援する「Manageboard」というサービスを提供しています。Manageboardでは今後、AI機能のさらなる強化を予定しています。

本記事では、研究開発の過程で直面した課題や実装ノウハウの一環として、AWS Bedrockで利用可能な生成AIモデルの選定方法についてご紹介します。

背景

AWS Bedrockは、複数の生成AIモデルを統一的なインターフェースで利用できるマネージドサービスです。 本記事では、以下の観点からBedrock対応モデルを整理・比較します。

  • モデルの種類と特徴(Claude・Titan・Nova)
  • 東京リージョンにおける提供状況

対応モデル一覧

2025年7月時点で、東京リージョン(ap-northeast-1)で利用可能な主なサーバーレスモデルは以下のとおりです。

モデル名 提供元 主な用途 特徴
Claude(Sonnet / Haiku) Anthropic テキスト生成/RAG 高精度、ガードレール強化、長文処理に強い
Titan / Nova Amazon 埋め込み/テキスト生成 Bedrock専用モデル、低レイテンシ、高速軽量

Claude(Anthropic製)

AnthropicのClaudeシリーズは、高精度で安全性の高いLLMとして知られています。

モデル 特徴 入力料金(USD/1000トークン) 出力料金(USD/1000トークン)
Claude Sonnet バランス重視の中位モデル 0.003 0.015
Claude Haiku 高速・軽量 0.00025(Claude 3 Haiku) 0.00125(Claude 3 Haiku)
  • 最上位モデル「Claude Opus」は東京リージョンでは未提供
  • Haikuは日本語を含む簡易タスクにも対応
  • ナレッジベース型RAGに特に適している

Titan / Nova(Amazon製)

Amazonが独自に提供するモデル群で、以下のように用途が分かれています。

Titan

モデル 用途 入力料金(USD/1000トークン) 出力料金(USD/1000トークン)
Titan Text Embeddings ベクトル埋め込み 0.0002(V1) / 0.000029(V2)
Titan Text Express テキスト生成 0.000275 0.000825
  • 軽量・高速で、低コスト
  • Text Embeddings は、ナレッジベース構築時の文書のベクトル化に使用されます。
  • Text ExpressはPlaygroundでのテキスト生成に利用可能です。

Nova

モデル 入力料金(USD/1000トークン) 出力料金(USD/1000トークン)
Nova Micro 0.000042 0.0000105
Nova Lite 0.000072 0.000018
Nova Pro 0.00096 0.00024
  • 最上位モデル「Nova Premier」は東京リージョン未提供
  • チャットボットやエージェント用途に最適
  • 出力はややシンプルだが、高速応答が可能
  • Claudeは出力トークンの単価が高め、Novaは入力トークンの単価が高めである点に注意。

現在の制限事項

2025年7月時点では、以下のAIに関する機能やモデルは東京リージョンで未対応です。

機能 状況
Claude Opus / Nova Premier 東京リージョンでは利用不可。
カスタムモデルのインポート 東京リージョンでは未対応。他リージョンでも日本語対応は不安定。
画像入力 LLMブロックやエージェントでの画像処理は未サポート。
Textractサービス(OCR用) 東京リージョンでは未対応。他リージョンでも日本語未対応。

まとめ

AWS Bedrockは、モデルをユースケースごとに柔軟に使い分けられる点と、AWSインフラとの高い統合性が魅力です。以下のような使い分けをおすすめします。

  • Claude Sonnet / Haiku:RAGやFAQ応答など、高精度が求められるユースケース向け
  • Titan:埋め込み生成の処理
  • Nova:汎用チャットやエージェント向け、高速性が重要な場合に有効

次回の記事では、ナレッジベース構築のアプローチと、Amazon Redshiftを活用したデータ統合・活用についてご紹介する予定です。RAGの連携に関心のある方は、ぜひご期待ください。

参考リンク

Discussion