📌

【Azure AI Foundry】 - Azure AI Foundry における Fine-tuning の計算環境の違い

に公開

執筆日

2025/7/28

そもそも

Azure AI Foundry で Fine-tuning を行う際、選択できる計算環境には大きく分けて次の2つがあります:

  • Serverless API
  • Managed Compute

それぞれ、課金体系やユーザー責任範囲が異なります。ユースケースや予算に応じた選択が求められます。


Serverless API とは?

Serverless API は、Azure が 完全にホスティングを管理する形式です。ユーザーはインフラ(VM、GPU、スケーリングなど)を意識する必要がなく、下記に対して課金が発生します:

  • トークン消費量
  • ホスティング費用

特徴:

  • 環境構築不要、即時利用可能
  • スケーラビリティは自動でAzureが対応
  • 初学者にも優しい

注意点:

  • 利用できるモデル・リージョンに制限あり(後述)

Managed Compute とは?

Managed Compute は、ユーザーがAzure ML経由で自前のVM(計算リソース)を用意する構成です。VMクォータを保有し、GPU構成やスケーリングも自ら定義します。

特徴:

  • 柔軟な環境設定(GPU選定、VMサイズなど)
  • Azure Machine Learning Studio 経由で制御可能
  • カスタムパイプラインの構築にも最適

注意点:

  • VMクォータの確保が必要

モデルごとの Fine-tuning 可否とリージョン制限

モデルによっては Serverless API での Fine-tuning に非対応なものもあります。

また、Fine-tuning 対応モデルとリージョンの組み合わせにも注意が必要です。以下の Microsoft Docs に詳細な対応表が掲載されています。

https://learn.microsoft.com/ja-jp/azure/ai-foundry/how-to/deploy-models-serverless-availability


参考資料

https://learn.microsoft.com/ja-jp/azure/ai-foundry/concepts/fine-tuning-overview

ヘッドウォータース

Discussion