🦁

Cloudflare AI GatewayのUniversalモデルを使ってみた

2024/10/03に公開

今回はCloudflareのAI GatewayのUniversalモデルをを触ってみたブログです👀
Cloudflare Meet-up Oita Vol.2でハンズオンを行ってみました!
https://cfm-cts.connpass.com/event/326062/

※ 2024-09-27時点の筆者が確認している情報/画面の状態です。

AI Gatewayについて

LLMサービス(Ex. ChatGPT, Workers AI etc.)のプロキシーとして配置し、下記などの機能を提供しています。

  • 各サービスへのエンドポイントを統一
  • トークン状況をモニタリング
  • Req/Res状態の可視化、分析
  • キャッシュやRate Limit機能

Universalモデルについて

上記で「各サービスへのエンドポイントを統一」と示しましたが、それの延長のお話です。
まず、AI Gatewayでは各LLMサービスへのエンドポイントを提供しており、Cloudflareのマネジメント画面からcurlのサンプルなども提示してくれます。
必要情報(APIキーなど)をHeaderで登録する必要があります。

そのうえで、Universalモデルというのは、一つのエンドポイントで複数のLLMサービスのゲートウェイとして機能させるというものです。
例えば、OpenAIへのリクエストにトークン枯渇などで失敗したときに、Workers AIへリクエストを送り直すみたいないめーじです👀

Universalモデルをつかってみる

TBD

Discussion