[gpt-oss, GPT-5 リリース!]Snowflake のクロスリージョン推論で異なるリージョンの LLM を活用
SNOWFLAKE WORLD TOUR TOKYO 2025
2025/9/11 - 12の2日間、Snowflake の国内最大のイベント『SNOWFLAKE WORLD TOUR TOKYO 2025』が開催されます!データ活用の最前線を是非体感しに来てください!参加申し込みと合わせてセッション登録もお忘れなく実施をお願いいたします!
はじめに
みなさまこんにちは。私は Snowflake にてパートナーソリューションエンジニアとして働いておりまして、今後、こちらの Zenn を活用して日頃試したことや気付いたことについて投稿を行っていきたいと考えております。今回は Snowflake の "Cross-region inference"(クロスリージョン推論)について整理してみたいと思います。
gpt-oss
、GPT-5
リリース!
ということで、SNS などでも話題ですね。これらのモデル、Snowflake でも利用いただくことが可能です。Developer Advocate の sho さんがこんなポストをしてくれています。
さっそく Snowflake で使ってみる
AWS の US East(N. Virginia) リージョンで作成した直後の Snowflake アカウントで早速以下を試してみます。
SELECT AI_COMPLETE('openai-gpt-5', 'Snowflakeの利点を3つ教えてください');
ところが、以下のようなエラーメッセージが表示されて実行できないようです。
100351 (P0000): Request failed for external function COMPLETE$V6 with remote service error: 400 '"The model you requested is unavailable in your region. To access it, enable cross region inference with AZURE_US, ANY_REGION. For more information, see https://docs.snowflake.com/en/user-guide/snowflake-cortex/cross-region-inference."
実はこの gpt-oss
と GPT-5
ですが、Snowflake では現状利用できるクラウドプロバイダー、リージョンが限られています。そのため、上記のようなエラーが発生するのですね。しかしながら、「クロスリージョン推論」という機能を利用することでクラウドプロバイダーとリージョンを跨いで利用することが可能になります。
クロスリージョン推論とは
Snowflake では、Cortex AI という Snowflake 上で生成 AI を活用いただけるサービスにてさまざまな LLM(Large Language Model) をご利用いただくことが可能です。一方で、それらのモデルは特定のクラウドプロバイダー、もしくはリージョンで利用することが可能となっているものもあり、皆様がご利用されている Snowflake のアカウントが稼働しているクラウドプロバイダーやリージョンではそのままでは利用いただけないケースもあります。
そこで、Snowflake としてはクロスリージョン推論と呼ばれる機能をご提供することで、クラウドプロバイダーとリージョンを跨いで LLM をご利用いただけるようになっております。"Cross-region inference"(クロスリージョン推論)は、2024/8/9 に発表された機能です。発表時のブログはこちら Announcing Cross-region Inference on Snowflake Cortex AI。
この機能は、推論要求がその Snowflake アカウントが稼働しているクラウドプロバイダー及び、リージョンで処理できない場合に、推論要求を処理できるリージョンを指定する、というものです。
こちらは CORTEX_ENABLED_CROSS_REGION
というパラメータによって制御されています。これのデフォルト値(つまり、Snowflake アカウントを作成した直後)は DISABLED
となっています。この状態ですと、Snowflake アカウントが稼働しているクラウドプロバイダー及び、リージョンにて利用可能なモデルのみが利用できます。
このパラメータは、以下のコマンドにて設定を変更することが可能です。
USE ROLE ACCOUNTADMIN;
ALTER ACCOUNT SET CORTEX_ENABLED_CROSS_REGION = 'AZURE_US';
上記の設定では、Snowflake アカウントが稼働しているクラウドプロバイダー、リージョンに加えてAZURE_US
で利用可能なモデルを利用することが可能になります。
たとえば、Snowflake アカウントが AWS の US East(N. Virginia) リージョンで稼働していたとしても、この設定をすることで AZURE_US
で利用可能なモデルを利用することが可能です。なお、クロスリージョン推論の機能解説を行っているドキュメントはこちらになります。
2025/8/5,7 の OpenAI 社によるモデルリリースと Snowflake での利用
さて、本記事の冒頭でも触れました通り 2025/8/5,7 と立て続けに OpenAI 社からモデルのリリースが発表され、それらが Snowflake 上でもすぐに利用できるようになりました。本件は Snowflake としてもアナウンスを行っております。
- 2025/8/5 OpenAI 社より gpt-oss が発表
- OpenAI 社による発表 Introducing gpt-oss
- Snowflake による発表 Linkedin の投稿
- 2025/8/7 OpenAI 社より GPT-5 が発表
- Open AI 社による発表 GPT-5
- Snowflake による発表 Announcing OpenAI GPT-5 on Snowflake Cortex AI
これらのモデルは例えば冒頭に記載したような記述でお手軽にご利用いただくことが可能です。
一方で、2025/8/9 現在ではこれらのモデルは利用できるクラウドプロバイダー及びリージョンが限られています。リージョンのサポート状況は具体的にはこちらのドキュメントにまとまっております。
例えば、本記事であげた gpt-oss
と GPT-5
を見てみますと以下のようなサポート状況です。
-
openai-gpt-5
,openai-gpt-5-mini
,openai-gpt-5-nano
は "Cross Cloud (Any Region)" 及び、Azure US(Cross-Region) -
openai-gpt-oss-120b
,openai-gpt-oss-20b
は "Cross Cloud (Any Region)"
それぞれ "In preview" の状態であること、gpt-oss
については、2025/8/9 現在では "Cross Cloud (Any Region)" のみとなっている点、注意が必要ですね。
クロスリージョン推論利用時の設定方法
このクロスリージョン推論利用時の設定方法ですが、先に記載したように以下のような形になります。
USE ROLE ACCOUNTADMIN;
ALTER ACCOUNT SET CORTEX_ENABLED_CROSS_REGION = 'AZURE_US';
この AZURE_US
部分についてはバリエーションがあり、以下のようになっています。ドキュメントとしてはこちらにまとまっております。
-
DISABLED
: デフォルト値。その Snowflake アカウントが稼働しているクラウドプロバイダー及び、リージョンにて利用可能なモデルのみを利用可能 -
ANY_REGION
: リクエストが行われたクラウドプロバイダー、リージョンを含み、Snowflake として利用可能なリージョンの全てのモデルをご利用いただけます
また、ANY_REGION
を指定せずに、特定のリージョンを指定することも可能です。その場合、2025/8/9 現在では以下のバリエーションがあります。
-
AWS_APJ
,AWS_EU
,AWS_US
,AZURE_EU
,AZURE_US
: これらの値はカンマ区切りで複数を同時に指定することが可能です。例えば以下のような形で設定することができます。
USE ROLE ACCOUNTADMIN;
ALTER ACCOUNT SET CORTEX_ENABLED_CROSS_REGION = 'AWS_US,AZURE_US';
それぞれのオプションで指定した場合にどのリージョンが利用可能になるか、についてはこちらのドキュメントにまとまっておりますのでご確認ください。2025/8/9 現在では英語と日本語で表記に差がありますので、英語版を正としてご確認いただければと思います。
例えば、AWS_APJ
を指定する場合、以下のリージョンが利用される可能性があります。
- The region where the request is placed.
- AWS Asia Pacific (Tokyo) ap-northeast-1
- AWS Asia Pacific (Seoul) ap-northeast-2
- AWS Asia Pacific (Osaka) ap-northeast-3
- AWS Asia Pacific (Mumbai) ap-south-1
- AWS Asia Pacific (Hyderabad) ap-south-2
- AWS Asia Pacific (Singapore) ap-southeast-1
- AWS Asia Pacific (Sydney) ap-southeast-2
- AWS Asia Pacific (Melbourne) ap-southeast-4
また、CORTEX_ENABLED_CROSS_REGION
の現在の設定状況については以下の SQL にてご参照いただくことが可能になっています。
SHOW PARAMETERS LIKE 'CORTEX_ENABLED_CROSS_REGION' IN ACCOUNT;
注意点、考慮事項
クロスリージョン推論ですが、いくつか注意点や考慮事項がありますので、ドキュメントから抜粋しつつ整理したいと思います。
設定の範囲
まずこのパラメーターは Snowflake のアカウントレベルでのみ設定可能で、ユーザーレベルやセッションレベルでは設定できない、という注意事項があります。そのため、そのアカウントにおいて Cortex AI をご利用いただく前提であれば、クロスリージョン推論を行うかどうかをアカウントレベルでご判断いただく必要があります。
リージョン間の遅延
リージョン間の遅延は、クラウドプロバイダーのインフラとネットワークの状態に依存します。想定されているユースケースに耐えられるかどうか、事前にテストされることをオススメします。
クロスリージョン推論に伴うデータの取扱
ユーザー入力、サービスにより生成されたプロンプト、および出力は、クロスリージョン推論中に保存またはキャッシュされることはありません。
データの移動に関しては、推論リクエストに必要なデータは、以下のような形で取り扱われます。
- リクエスト送信元と宛先のリージョンの両方が AWS 内にある場合、データは AWS グローバルネットワーク内に留まります。データセンターとリージョンを相互接続する AWS グローバルネットワークを流れる全てのデータは、物理層で自動的に暗号化されることになります
- リクエスト送信元と宛先のリージョンの両方が Azure にある場合、トラフィックは Azure グローバルネットワーク内に留まります。パブリックインターネットに入ることはありません
- 送信元と宛先のリージョンが異なるクラウドプロバイダーとなる場合データは Mutual Transport Layer Security(mTLS)を使用してパブリックインターネットを経由します
補足情報として、データの移動に関して AWS と Azure 側の情報も見ておきたいと思います。
AWS の通信については、「Amazon VPC のよくある質問」に以下のような記載があります。
AWS ネットワークから発信され、AWS ネットワーク上の送信先を持つパケットは、AWS 中国リージョンとの間のトラフィックを除いて、AWS グローバルネットワークにとどまります。さらに、データセンターとリージョンを相互接続する AWS グローバルネットワークを流れるすべてのデータは、安全性が保証された施設を離れる前に、物理レイヤーで自動的に暗号化されます。すべての VPC クロスリージョンピアリングトラフィックや、カスタマーまたはサービス間のトランスポート層セキュリティ (TLS) 接続などといった追加の暗号化レイヤーもあります。
Azure の通信については「マイクロソフトのグローバル ネットワーク」に以下のような記載があります。
では、Microsoft サービスの使用時はすべてのトラフィックがこのようにルーティングされるのでしょうか。 はい。Microsoft Azure 内のデータセンター間、または Virtual Machines、Microsoft 365、Xbox、SQL DB、Storage、仮想ネットワークなどの Microsoft サービス間のあらゆるトラフィックはこのグローバル トラフィック内でルーティングされ、決してパブリック インターネットを経由しません。 このルーティングにより、最適なパフォーマンスと整合性が保証されます。
料金について
LLM の使用にはクレジットが消費されます。クレジットは、要求しているリージョンで消費されたと見なされます。例えば、us-east-2
リージョンから LLM 関数を呼び出し、us-west-2
リージョンで要求が処理された場合、クレジットは us-east-2
リージョンで消費されたと見なされます。
どの LLM を利用するとどの程度クレジットが使用されるかについては、Snowflake Service Consumption Table をご確認ください。
また、クロスリージョン推論を使用しても、Data egress の料金は発生しません。
原文は以下になりますので、こちらもご参照ください。
他の点も含め、ぜひドキュメントもご参照ください!
上記は観点を抜粋したものになりますので、その他の点含めぜひこちらのドキュメントもご確認ください!
おわりに
今回は gpt-oss
、GPT-5
のリリースに合わせて Snowflake のクロスリージョン推論についてまとめてみました。注意点、考慮点をよくよくご確認いただいた上で、LLM の力を存分にご活用いただければ幸いでございます。
おまけ: 宣伝
Snowflake World Tour Tokyo 2025
2025/9/11-12 の 2 日間に渡り、Snowflake World Tour Tokyo が開催されます!開催期間2日間、90セッションの大規模イベントとなっております。30 社以上のお客様からの最新事例をお聞きいただけるのに加え、40 社のデータと AI に関連した展示もされます。ぜひご来場いただければと思います!!
イベントページは以下になります。参加申込みに合わせ、セッションのご登録もよろしくお願いいたします!
tsubasa さん)
Snowflake の What's new の配信(bytsubasa さん が X で Snowflake の What's new の更新情報を配信されております。最新情報のキャッチアップに是非フォローしてみてください。
日本語版
Snowflake の What's New Bot (日本語版)
English Version
Snowflake What's New Bot (English Version)
リンクまとめ
- パラメータのドキュメント CORTEX_ENABLED_CROSS_REGION
- クロスリージョン推論発表時のブログ Announcing Cross-region Inference on Snowflake Cortex AI
- クロスリージョン推論の機能解説ドキュメント Cross-region inference
- LLM 毎のリージョンサポート状況
- LLM 毎のクレジット消費量 Snowflake Service Consumption Table
更新履歴
2025/8/9 新規投稿
2025/8/19 Snowflake World Tour Tokyo 2025 について追記
Discussion