⛳
LLMをOpenAI,AnthropicのAPI経由で利用する場合とAmazon Bedrock経由で利用する際の違い
LLMを活用するにあたり、OpenAIやAnthropicなどのベンダーが提供するAPIを直接利用するのと、Amazon Bedrockを経由して利用するのでは、いくつかの重要な違いがあります。
機能 | OpenAI | Bedrock |
---|---|---|
データの保持場所 | リージョン選択なし、データが国外に流出する可能性あり | 東京リージョンを利用可能、データは日本国内に保持 |
プライベート利用 | インフラがインターネット上にあり、プライベート利用不可 | PrivateLinkを利用してプライベートネットワーク内で利用可能 |
認証とアクセス制御 | APIキー認証のみ、柔軟性に欠ける | IAMロールによる一時的な認証とより細かいアクセス制御が可能 |
データ保持期間 | 強制的に30日(OpenAI API)(*1)/28日(Claude API)保持(*2) | お客様が完全に制御可能 |
このように、Amazon Bedrockを利用することで、データの保持場所、プライベート利用、認証・アクセス制御、データ保持期間の面で、より柔軟で安全な運用が可能になります。機械学習モデルを本番環境で活用する際は、こうした違いを考慮する必要があるでしょう。
*1
Do you store the data that is passed into the API?
As of March 1st, 2023, we retain your API data for 30 days but no longer >use your data sent via the API to improve our models. Learn more in our >data usage policy. Some endpoints offer zero retention.
*2
ビジネスまたはエンタープライズ製品(APIのサービス契約があるなど)のユーザーである場合、特に合意しない限り、Anthropicは受信または生成後28日以内にバックエンドでプロンプトと出力を自動的に削除します。 AUPを実施したり、法律を順守するためにそれらをより長く保持する必要がある場合を除きます。
Discussion