🙆
Microsoft Fabric の組み込みの AI モデルを使ってみる-【言語検出編】
やってみること
OpenAI Python SDKを使用して、Fabric の Azure OpenAI を使用して言語検出を行う
手順
- Microsoft Fabric(https://app.fabric.microsoft.com/home)にアクセス
- 「Synapse Data Engineering」をクリック
- 「ワークスペース」をクリック
- 作業を行うワークスペースをクリック
- 「+新規」をクリック
- 「ノートブック」をクリック
- ノートブックが開くことを確認
- 下記のコードを実行し、AIサービスに接続する
# Get workload endpoints and access token
from synapse.ml.mlflow import get_mlflow_env_config
import json
mlflow_env_configs = get_mlflow_env_config()
access_token = access_token = mlflow_env_configs.driver_aad_token
prebuilt_AI_base_host = mlflow_env_configs.workload_endpoint + "cognitive/texttranslation/"
print("Workload endpoint for AI service: \n" + prebuilt_AI_base_host)
# Make a RESTful request to AI service
post_headers = {
"Content-Type" : "application/json",
"Authorization" : "Bearer {}".format(access_token),
}
def printresponse(response):
print(f"HTTP {response.status_code}")
if response.status_code == 200:
try:
result = response.json()
print(json.dumps(result, indent=2, ensure_ascii=False))
except:
print(f"pasre error {response.content}")
else:
print(f"error message: {response.content}")
- 下記のコードを実行する
import requests
import uuid
service_url = prebuilt_AI_base_host + "detect?api-version=3.0"
post_body = [
{"Text":"hello"},
{"Text":"こんちわ"},
{"Text":"안녕하세요"}
]
post_headers["x-ms-workload-resource-moniker"] = str(uuid.uuid1())
response = requests.post(service_url, json=post_body, headers=post_headers)
# Output all information of the request process
printresponse(response)
- 結果を確認
HTTP 200
[
{
"isTranslationSupported": true,
"isTransliterationSupported": false,
"language": "en",
"score": 1.0
},
{
"isTranslationSupported": true,
"isTransliterationSupported": true,
"language": "ja",
"score": 0.99
},
{
"isTranslationSupported": true,
"isTransliterationSupported": true,
"language": "ko",
"score": 1.0
}
]
Discussion