🦁

Googleから登場!!「Cloud Run MCP」

に公開

はじめに

近年、AI技術の進化は目覚ましく、様々なアプリケーション開発でAIが活用されています。AIを活用したアイデアが次々と生まれる一方で、開発したアプリケーションを実際にユーザーに使ってもらえる形にする「デプロイ」のプロセスに手間や時間がかかり、開発スピードのボトルネックになってしまうことも少なくありません。

本記事では、このようなAIアプリケーションのデプロイプロセスを劇的に効率化する、Google Cloud の新しい取り組みについてご紹介します。特に、以下の2つの方法に焦点を当てて解説します。

  1. Google AI Studio から Cloud Run へのワンクリックデプロイ
  2. Model Context Protocol (MCP) に対応した AIエージェント から Cloud Run へのデプロイを可能にする Cloud Run MCP サーバー

この記事を最後まで読むことで、AI Studio やお使いの AI 開発環境から Cloud Run へ、いかに簡単かつ迅速に AI アプリケーションをデプロイできるかを理解し、実際に手を動かせるようになります。さあ、AI 開発から公開までの道のりを加速させましょう!

AI駆動開発と Cloud Run の相性

AI を活用したアプリケーション(AI アプリ)を公開するにあたって、サーバーサイドの構築は避けて通れません。ここで頼りになるのが、Google Cloud が提供するマネージドコンピューティングプラットフォームである Cloud Run です。

Cloud Run は、コンテナ化されたアプリケーションをインフラ管理なしに実行できるサービスです。その最大の魅力は以下の点にあります。

  • シンプルさ、柔軟性、スケーラビリティ: アプリケーションの規模に応じて自動的にスケールします。
  • コスト効率の高さ:
    • リクエストベース課金: アプリケーションへのリクエストがあったときだけ課金されます。
    • 100ms 単位のきめ細やかさ: 実行時間に応じて細かく課金されます。
    • 無料枠: 月あたり 200 万リクエストを含む無料枠が提供されており、気軽に試すことができます。
    • スケール・トゥ・ゼロ: リクエストがない場合はインスタンスがゼロになり、コストが発生しません。これは、利用頻度が予測しにくい初期の AI アプリや、特定のタスク実行時のみ利用されるような AI アプリにとって、非常に経済的です。
  • GPU サポート: 特に大規模な AI モデルを利用する際に重要となる GPU インスタンスも利用可能です。GPU インスタンスも必要に応じてスケーリングし、5秒未満で起動 するため、高い応答性が求められる AI アプリにも適しています。

このように、Cloud Run は AI アプリケーションの特徴(処理負荷の変動が大きい、利用頻度が一定でない、GPUが必要になる場合があるなど)と非常に相性が良く、開発者がデプロイと運用に頭を悩ませることなく、AI 機能そのものの開発に集中できる環境を提供します。

Google Cloud は、この Cloud Run を活用した AI アプリケーションのデプロイを、さらに簡単にする方法を新たに提供開始しました。

方法 1: Google AI Studio からのワンクリックデプロイ

まずご紹介するのは、Google AI Studio から Cloud Run へ直接デプロイする方法です。

Google AI Studio とは?

Google AI Studio は、Google の最新の AI モデルである Gemini を使って開発を始めるための最も速い方法として提供されています。UI 上でプロンプトエンジニアリングを試したり、関数呼び出しなどの機能を組み込んだりしながら、手軽に AI アプリのバックエンドロジックを構築できます。

開発したアプリを Cloud Run へデプロイ

AI Studio で AI アプリケーションのプロトタイプやロジックを開発したら、それを外部から利用可能な Web アプリケーションとして公開したいと考えますよね。以前は、AI Studio からコードをエクスポートして、自分でインフラを用意してデプロイする必要がありました。

しかし、今回のアップデートにより、AI Studio で開発したアプリケーションを Cloud Run に ワンボタンクリック でデプロイできる ようになりました!これにより、コード開発からインターネット経由でアクセス可能な状態にするまでが、数秒 で完了します。

デプロイが完了すると、以下のメリットを享受できます。

  • 安定した HTTPS エンドポイント: 公開されたアプリケーションにアクセスするための安全な URL が提供されます。
  • 自動スケーリング (必要に応じて ゼロまでスケール) : アクセス負荷に応じて自動的にインスタンス数が増減し、リクエストがないときはインスタンスが停止してコストを抑えます。
  • Cloud Run ソースエディタでの更新: デプロイ後も、Cloud Run のコンソール上でコードを編集し、簡単にアップデートできます。
  • Gemini API キーの安全な管理: API キーは Cloud Run のサーバーサイドで安全に管理され、クライアントデバイスから直接アクセスされることはありません。

Gemma 3 モデルのデプロイもワンクリックで

この AI Studio から Cloud Run へのワンクリックデプロイは、Gemini ベースのアプリだけでなく、Gemma 3 モデル のデプロイにも対応しています。

Gemma は、高いパフォーマンスを持つオープンなモデルです。特に Gemma 3 モデル を使用するプロジェクトをスケールさせたい場合に、AI Studio から Cloud Run へのデプロイが非常に強力な選択肢となります。

AI Studio で Gemma 3 モデルを選択し、GPU 付き で Cloud Run にデプロイする操作も ワンクリック で可能です。これにより、特別なクォータリクエストをすることなく、わずか 1 分未満 でデプロイが完了します。

デプロイされた Gemma 3 モデルは、Cloud Run 上で実行され、先述の Cloud Run のメリット(シンプルさ、従量課金、ゼロスケーリング、GPUインスタンスの高速起動)を享受できます。

また、デプロイされたエンドポイントは Google Gen AI SDK と互換性がある ため、SDK を利用して簡単にアクセスできます。エンドポイント URL と API キーを SDK に設定するだけで利用可能です。以下に Python での利用例を示します。以下、ソースのコード例。

利用例
from google import genai
from google.genai.types import HttpOptions

# Configure the client to use your Cloud Run endpoint and API key
client = genai.Client(api_key="KEY_RECEIVED_WHEN_DEPLOYING", http_options=HttpOptions(base_url="CLOUD_RUN_ENDPOINT_URL"))

# Example: Stream generate content
response = client.models.generate_content_stream(
    model="gemma-3-4b-it",
    contents=["Write a story about a magic backpack. You are the narrator of an interactive text adventure game."]
)

for chunk in response:
    print(chunk.text, end="")

このように、AI Studio からのワンクリックデプロイは、AI アプリ開発初心者や、アイデアを素早く形にして試したい場合に非常に有効な手段です。プロトタイプ開発や学習用途に最適でしょう。

方法 2: Cloud Run MCP サーバーを使った AI エージェントからのデプロイ

次に、より開発ワークフローに深く組み込みたい場合や、様々な AI エージェントからデプロイを実行したい場合に役立つ Cloud Run MCP サーバー をご紹介します。

Model Context Protocol (MCP) とは?

AI エージェントの進化に伴い、エージェントが様々な「ツール」を利用してタスクを実行することが重要になっています。例えば、コードを生成したり、API を呼び出したり、そして今回ご紹介する「アプリケーションをデプロイする」といったタスクです。

Model Context Protocol (MCP) は、このような AI エージェントがその実行環境や利用可能なツールと標準化された方法で対話するための、オープンなプロトコル標準 です。Google は、エージェントがツールとやり取りするためのオープンスタンダードをサポートすることを重視しています。

Cloud Run MCP サーバーの登場

今回新たに発表された Cloud Run MCP サーバー は、この MCP に対応した AI エージェントが、アプリケーションを Cloud Run にデプロイ できるようにするためのサーバーです。

つまり、お手持ちの MCP 対応 AI エージェントに Cloud Run MCP サーバーを組み込むことで、エージェントに「このアプリを Cloud Run にデプロイして」と指示できるようになるのです。

どんな AI エージェントで使える?

Cloud Run MCP サーバーは、様々なタイプの MCP クライアント、すなわち AI エージェントから利用できます。

  1. AI アシスタントアプリ: Claude のようなデスクトップアプリケーションから、Node.js アプリケーションを生成し、そのまま Cloud Run にデプロイするといった操作が可能です。
  2. AI-powered IDEs (統合開発環境): VS Code の Copilot のようなエージェントモードを持つ IDE から、Python アプリケーション (FastAPI など) を更新し、Cloud Run MCP サーバーを使ってデプロイするといったワークフローが実現できます。
  3. Agent SDKs (ソフトウェア開発キット): Google Gen AI SDK や Agent Development Kit のようなエージェント開発用の SDK も、MCP を介してツールを呼び出すサポートがあるため、Cloud Run MCP サーバーを使って Cloud Run にデプロイできます。

これらの AI エージェントから、例えば「GitHub リポジトリにあるこのコードを Cloud Run にデプロイしてください」といった指示を実行できるようになるイメージです。

Cloud Run MCP サーバーの導入

Cloud Run MCP サーバーは、以下のコマンドでインストールし、お使いの MCP クライアントに追加できます。ソースのコード例です。

Cloud Run MCP server configuration
{
  "cloud-run": {
    "command": "npx",
    "args": ["-y", "https://github.com/GoogleCloudPlatform/cloud-run-mcp"]
  }
}

この方法は、既存の開発ワークフローにデプロイプロセスを組み込みたい場合や、AI エージェントによる自動化を進めたい場合に非常に有効です。AI アシスタントや IDE の機能拡張としてデプロイを利用できるため、開発効率をさらに向上させることが期待できます。

どちらの方法を選ぶべきか?

ご紹介した 2 つの方法は、それぞれ異なるユースケースに適しています。

  • Google AI Studio からのワンクリックデプロイ:

    • AI アプリ開発を素早く試したい
    • AI Studio で開発したプロトタイプや学習用 のアプリケーションを公開したい。
    • 特に Gemini や Gemma モデル を使った開発を行っている。
    • GPU 付きの Gemma 3 モデルを簡単にデプロイしたい。
    • デプロイプロセス自体を最小限の手順で完了させたい。
    • このようなケースでは、AI Studio の直感的な UI からのワンクリックデプロイが最も手軽で迅速です。
  • Cloud Run MCP サーバーを使った AI エージェントからのデプロイ:

    • 既存の開発環境 (IDE など) や利用している AI アシスタント/エージェント からデプロイを実行したい。
    • デプロイプロセスを AI エージェントによる自動化ワークフロー に組み込みたい。
    • MCP というオープンプロトコル標準を活用したい。
    • 様々なタイプのアプリケーション (AI アプリに限らず) のデプロイにも将来的に応用したい。
    • このようなケースでは、Cloud Run MCP サーバーを AI エージェントに組み込むことで、開発ワークフロー全体の効率化を図れます。

どちらの方法も、Cloud Run の優れた特性(自動スケーリング、ゼロスケーリング、コスト効率)を活かせる点では共通しています。ご自身の開発スタイルや目的に合わせて最適な方法を選択してください。

まとめ

本記事では、AI アプリケーションを Google Cloud の Cloud Run へ効率的にデプロイするための新しい方法として、以下の 2 つをご紹介しました。

  • Google AI Studio からのワンクリックデプロイ: AI Studio で開発したアプリや Gemma 3 モデルを、コードをエクスポートすることなく、UI から直接 Cloud Run にデプロイできます。プロトタイプ開発や学習に最適です。
  • Cloud Run MCP サーバー: Model Context Protocol (MCP) に対応した様々な AI エージェント (AI アシスタント、IDE、SDK) から、Cloud Run へのデプロイを自動化・統合できます。開発ワークフローへの組み込みや自動化に適しています。

これらの新しい方法を活用することで、AI アプリケーションの開発から公開までのリードタイムを大幅に短縮し、AI 機能そのものの開発に集中できるようになります。Cloud Run の自動スケーリングやゼロスケーリングといった特性と組み合わせることで、運用コストも抑えつつ、スケーラブルな AI アプリケーションを提供可能です。

次のステップ

さあ、実際にこれらの機能を試してみましょう!

  • まずは Google AI Studio を使って、Gemini や Gemma 3 で AI アプリケーションを開発し、Cloud Run へのワンクリックデプロイ を試してみてください。
  • もしお使いの AI 開発環境や AI エージェントが MCP に対応している場合は、Cloud Run MCP サーバー をインストールして、エージェントからのデプロイを試してみるのも良いでしょう。

Google Cloud を初めてご利用の方は、$300 分の無料クレジット を活用できます。また、Cloud Run には毎月 200 万リクエストの無料枠 もありますので、気軽に試すことができます。

これらの新しい機能が、あなたの AI アプリケーション開発・デプロイプロセスを加速させる助けになれば幸いです!🚀

関連記事

https://cloud.google.com/blog/products/ai-machine-learning/ai-studio-to-cloud-run-and-cloud-run-mcp-server?e=48754805&hl=en

https://cloud.google.com/run?hl=ja

https://cloud.google.com/run/docs/overview/what-is-cloud-run?hl=ja

Discussion