📌
【Azure AI Foundry】 - Azure AI Foundry における Fine-tuning の計算環境の違い
執筆日
2025/7/28
そもそも
Azure AI Foundry で Fine-tuning を行う際、選択できる計算環境には大きく分けて次の2つがあります:
Serverless APIManaged Compute
それぞれ、課金体系やユーザー責任範囲が異なります。ユースケースや予算に応じた選択が求められます。
Serverless API とは?
Serverless API は、Azure が 完全にホスティングを管理する形式です。ユーザーはインフラ(VM、GPU、スケーリングなど)を意識する必要がなく、下記に対して課金が発生します:
- トークン消費量
 - ホスティング費用
 
特徴:
- 環境構築不要、即時利用可能
 - スケーラビリティは自動でAzureが対応
 - 初学者にも優しい
 
注意点:
- 利用できるモデル・リージョンに制限あり(後述)
 
Managed Compute とは?
Managed Compute は、ユーザーがAzure ML経由で自前のVM(計算リソース)を用意する構成です。VMクォータを保有し、GPU構成やスケーリングも自ら定義します。
特徴:
- 柔軟な環境設定(GPU選定、VMサイズなど)
 - Azure Machine Learning Studio 経由で制御可能
 - カスタムパイプラインの構築にも最適
 
注意点:
- VMクォータの確保が必要
 
モデルごとの Fine-tuning 可否とリージョン制限
モデルによっては Serverless API での Fine-tuning に非対応なものもあります。
また、Fine-tuning 対応モデルとリージョンの組み合わせにも注意が必要です。以下の Microsoft Docs に詳細な対応表が掲載されています。
参考資料
Discussion