AI-102受験するので、受かるまでOpenしてます。
なにがともあれ。
画像内のブランド ロゴを識別するために利用すべき Azure サービスは、Azure AI Vision サービスです。このサービスには、オブジェクト検出の特殊なモードであるブランド検出と呼ばれる機能があります。何千もの世界的なロゴのデータベースを使用して、画像やビデオ内の商業ブランドを識別します。
Azure AI-Language は、感情分析や言語翻訳など、テキストの処理と分析に特化して設計された Azure AI サービスの一部です。詳細: Azure AI 言語とは - Azure AI サービス | Microsoft Learn
Azure AI Personalizer は、各ユーザーにパーソナライズされた関連性の高いエクスペリエンスを提供するサービスです。Azure でのみ利用できる強化学習ベースの機能を使用して、コンバージョンとエンゲージメントを促進し、製品の推奨事項にリアルタイムの関連性を追加します。AI Personalizer は、機械学習の専門知識がなくても、スタンドアロンのパーソナライゼーション ソリューションとして、または既存のランキング エンジンを補完するために使用できます。詳細: Personalizer とは何ですか? - Azure AI サービス | Microsoft Learn
公平性と人間中心の設計: AI システムは人間の監視と多様な視点を取り入れて設計され、不当な差別や有害な偏見のリスクを軽減するための確固たる価値観に沿って設計される必要があります1。これには、データとモデルの偏りを最小限に抑えることが含まれます。
説明責任と透明性: AI ライフサイクル全体にわたって個人による明確な監督を確立し、AI システムの開発と使用、および意思決定の方法に対する透明性を提供します1。これには、組織内での明確な役割と責任、およびリスクを監視および管理するための SOP が含まれます。
詳細情報:責任ある AI (RAI) 原則 | クォンタムブラック | マッキンゼー・アンド・カンパニー
診断設定の有効化: Azure AI リソースの診断設定を有効にする必要があります。これには、Azure portal でリソースの [診断設定] セクションに移動し、ログを有効にすることが含まれます。パフォーマンス メトリック、サービス固有のログ、リソース固有のログなど、収集するログの種類を選択するオプションがあります。
ログの送信先の構成: 診断設定を有効にした後、ログとメトリックの送信先を指定する必要があります。Azure には、Azure Monitor ログ (Log Analytics ワークスペース)、Azure Event Hubs (サードパーティ サービスまたは分析ツールによる取り込み用)、Azure Storage (ログのアーカイブまたは手動検査用) など、ログの保存先がいくつか用意されています。
多変量異常検出では、さまざまな変数と時系列データ ポイント間の相関関係を考慮して、複数の変数を分析して異常なデータ ポイントを特定します。
データのラベル付け: 対象のオブジェクトの周囲に境界ボックスを描画し、正しいクラス名でラベルを付けることにより、画像に注釈を付けます。このステップは、モデルが学習するグランドトゥルースを定義するため、非常に重要です。ラベルの品質と精度は、トレーニングされたモデルのパフォーマンスに大きな影響を与える可能性があります。
テキスト モデレーション ソリューションを実装する場合、次の Azure AI サービスと機能を組み合わせて、堅牢なソリューションを確保できます。
Azure AI Content Safety: Azure AI Content Safety は、AI を使用してコンテンツを安全に保つコンテンツ モデレーション プラットフォームです。強力な AI モデルを使用して、テキストや画像内の攻撃的または不適切なコンテンツを迅速かつ効率的に検出します。100 以上の言語をサポートしており、特に英語、ドイツ語、日本語、スペイン語、フランス語、イタリア語、ポルトガル語、中国語のトレーニングを受けています。
Content Safety Studio: Content Safety Studio は、最新のコンテンツ モデレーション ML モデルを使用して、潜在的に不快なコンテンツ、危険なコンテンツ、または望ましくないコンテンツを処理するように設計されたオンライン ツールです。ユーザーがコンテンツ管理システムを構築できるようにするテンプレートとカスタマイズされたワークフローを提供します。
Azure Text Analytics のメソッドKeyPhraseExtraction()は、テキスト ドキュメント内の主要なポイントを識別するように特別に設計されています。これは、テキストにとって重要と思われる文字列を抽出することによって行われます。キー フレーズの抽出は、文書内で最も重要で関連性のある用語を迅速に特定するのに役立ちます。これは、コンテンツの発見に役立ち、テキストの主要なテーマについての洞察を提供し、文書の検索性を向上させることができます。
AnalyzeImage(): この方法は通常、テキスト分析ではなくコンピューター ビジョン タスクに関連付けられます。テキストから情報を抽出するのではなく、画像内の視覚コンテンツを分析するために使用されます。
TranslateText(): 名前が示すように、この方法はテキストをある言語から別の言語に翻訳するために使用され、テキストからキー フレーズを抽出するために使用されません。
SentimentAnalysis(): この方法では、キーフレーズを特定するのではなく、テキストを分析して、その中で表現されている感情 (肯定的、否定的、中立的など) を判断します。
テキスト音声変換で音声の発音、イントネーション、タイミングを制御するには、音声合成マークアップ言語 (SSML) を使用する必要があります。SSML は、開発者が音声合成のさまざまな側面 (音声、音量、ピッチ、レート、発音など) を指定できる XML ベースのマークアップ言語で、より自然で洗練された音声出力を提供します。
リソース名: Azure AI リソースの名前。
デプロイメント ID:モードをデプロイしたときに選択したデプロイメント名。
API バージョン:この操作に使用する API バージョン1。これは YYYY-MM-DD 形式に従います。
API キーまたは Microsoft Entra ID:認証のために、すべての API リクエストには、API キー HTTP ヘッダーに API キー、または Authorization ヘッダーに Microsoft Entra トークンが含まれている必要があります。
Azure Key Vault は、アカウント キーなどのシークレットを安全に保存し、アクセスするためのツールです。
Anomaly Detector サービスは、2026 年 10 月 1 日に廃止されます。そのため、Metrics Advisor が代替手段となります。
Metrics Advisor は、時系列異常の検出、診断、分析のためのいくつかの機能を提供します。そのうちの 2 つを次に示します。
使いやすくカスタマイズ可能な異常検出: Metrics Advisor は、機械学習の知識を必要とせずに、データに最適なモデルを自動的に選択します。パラメーター調整と対話型フィードバックを使用して、データに適用されるモデルと将来の異常検出結果をカスタマイズできます。
複数のチャネルを介したリアルタイム通知:異常が検出されるたびに、Metrics Advisor は、電子メール フック、Web フック、Teams フック、Azure DevOps フックなどのフックを使用して、複数のチャネルを介してリアルタイム通知を送信できます。柔軟なアラート構成により、いつ、どこに通知を送信するかをカスタマイズできます。
Azure AI Video Indexerサービスは、ビデオ コンテンツから話し言葉、書かれたテキスト、顔などの洞察を抽出するように設計されています。このサービスはメディア AI テクノロジーに基づいて構築されており、ビデオから洞察を簡単に抽出できます。
Azure Conversational Language Understanding (CLU) のコンテキストでは、発話はモデルが理解する必要があるユーザーの入力です。これは、ユーザーが発言または入力した内容を表すテキストです。たとえば、旅行予約ボットでは、「パリ行きの航空券を予約してください」が「BookFlight」インテントに関連付けられた発話になる可能性があります。発話は完全な文にすることもできますが、必ずしもそうである必要はありません。ユーザーの意図を表すほんの数語の場合もあります。
ビデオ コンテンツ内の空間関係を分析する機能を提供する Azure サービスは、Azure AI Vision Spatial Analysis です。このサービスは、カメラからビデオ ストリームを取り込み、洞察を抽出し、他のシステムで使用するイベントを生成できます。スペースに入る人の数を数えたり、フェイスマスクや社会的距離のガイドラインの遵守状況を測定したりすることができます。ビデオ内の人の存在や動きを検出することもできます。空間分析は、録画されたビデオまたはライブ ビデオのいずれかで使用できます。
テキスト データの感情を判断するために使用する Azure サービスは、Azure AI-Languageです。このサービスは、テキスト サンプルで表現された感情を識別し、側面ベースの感情分析を実行できる感情分析と呼ばれる機能を提供します。サービスによって文および文書レベルで検出された最高の信頼スコアに基づいて、センチメント ラベル (「ネガティブ」、「中立」、「ポジティブ」など) が提供されます。
パターン マッチング: Speech SDK は、非常に厳密な方法で意図を認識するために使用できる埋め込みパターン マッチャーを提供します。これは、オフラインでの迅速な解決策が必要な場合に役立ちます。これは、ユーザーが何らかの方法でトレーニングを受ける場合、またはインテントをトリガーするために特定のフレーズを使用することが予想される場合に特に効果的です。
会話型言語理解 (CLU): CLU を使用すると、ユーザーはカスタムの自然言語理解モデルを構築して、受信発話の全体的な意図を予測し、そこから重要な情報を抽出できます。Speech SDK で CLU を使用するには、Speech リソースと Language リソースの両方が必要です。Speech リソースはユーザーの音声をテキストに書き写すために使用され、Language リソースは発話の意図を認識するために使用されます。
データ ソースの作成:インデクサーを実行する前に、データの取得元を指定する必要があります。これは、Azure Blob Storage、Azure Table Storage、Azure Cosmos DB、またはその他のサポートされているデータ ソースからのものである可能性があります。データ ソース接続には、データ ソースの名前、データ ソースへの接続に必要な資格情報、含めるまたは除外する特定のデータが含まれます。
インデックスの作成:検索可能なデータを保持するインデックスのスキーマを定義する必要があります。これには、インデックスを作成するドキュメントに存在するフィールド、属性、データ型の設定が含まれます。
フィルタリング:クエリ オプションを使用して、
並べ替え:クエリ オプションを使用して
Azure OpenAI で生成されるテキストの長さを制御する主な方法は、max_tokens設定 1 を使用することです。この設定は、モデルの応答内のトークンの数に制限を設定します。API は、プロンプトと応答の両方で最大 4000 個のトークンをサポートします。1 つのトークンは、一般的な英語テキストの 4 文字にほぼ相当します。これらのリクエストでは、プロンプトと完了の間で共有される最大 2,049 個のトークンを使用できることに注意してください。
温度:このパラメータはモデルの出力のランダム性を制御します。より高い温度では、モデルの応答はより創造的で予期せぬものになる可能性があります。
最大長 (max_tokens):このパラメーターは、モデルの応答内のトークンの数に制限を設定します。1 つのトークンは、一般的な英語テキストの 4 文字にほぼ相当します。
上位確率 (top_p):このパラメーターは温度と同様に、モデルの出力のランダム性を制御しますが、異なる方法を使用します。
スキル: スキルセットは、テキストの翻訳や画像ファイルの OCR などのエンリッチメントを実行する 1 つ以上のスキルの配列です。スキルには、Microsoft の組み込みスキル、または外部でホストするロジックを処理するためのカスタム スキルを使用できます。
コンテキスト: 各スキルにはコンテキストがあり、ドキュメント全体 ( /document) またはツリーの下位ノード ( /document/countries/*) にすることができます。コンテキストは、単一の値(フィールドごと、ドキュメントごとに 1 回)、またはコレクション型のコンテキスト値に対してスキルが実行される回数を決定します。
入力と出力: スキルには入力と出力があります。入力は強化されたドキュメント内のノードから発生し、「ソース」と「名前」によって特定のノードが識別されます。出力は、新しいノードとして強化されたドキュメントに送り返されます。
インデクサー: スキルセットはインデクサーにアタッチされます。これには、外部データ ソースから取得したドキュメントに対して組み込み AI または外部カスタム処理を呼び出す 1 つ以上のスキルが含まれています。
前回の更新の時点で、Azure Text Analytics は 120 の言語の言語検出をサポートしています。
Azure Text Analytics の感情分析は、テキスト サンプルで表現された感情を識別するために使用されます。サービスによって文および文書レベルで検出された最高の信頼スコアに基づいて、「肯定的」、「否定的」、「中立」、または「混合」などのセンチメント ラベルが提供されます。
テキストからキー フレーズを抽出するために特別に設計された Azure サービスは、Azure AI-Languageのキー フレーズ抽出機能です。この機能を使用すると、テキスト内の主要な概念をすばやく識別できます。たとえば、「食べ物は美味しくて、素晴らしいスタッフがいました」というテキストでは、キー フレーズ抽出により、主要な話のポイントである「食べ物」と「素晴らしいスタッフ」が返されます。
レコードの最大サイズは、 で測定した場合、50,000 文字である必要がありますString.Length。データをキー フレーズ抽出プログラムに送信する前に分割する必要がある場合は、テキスト分割スキルの使用を検討してください。テキスト分割スキルを使用する場合は、最高のパフォーマンスを得るためにページの長さを 5000 に設定してください。
Operation-Location ヘッダーは、完了後に結果が投稿される場所です。
Speech Synthesis Markup Language (SSML)は XML ベースのマークアップ言語で、開発者はこれを使用して、テキスト読み上げサービスを使用して入力テキストを合成音声に変換する方法を指定できます。プレーン テキストと比較して、SSML を使用すると、開発者はテキスト読み上げ出力のピッチ、発音、話速、音量などを微調整できます。ピリオドの後の一時停止や、文が疑問符で終わる場合の正しいイントネーションの使用など、通常の句読点は自動的に処理されます。
以下は、音声合成の制御に使用されるマークアップ言語ではありません。
SQL – 構造化照会言語はデータ管理言語であり、マークアップ言語ではありません。
JSON – JavaScript Object Notation はデータ交換形式であり、マークアップ言語ではありません。
HTML と TeX – ハイパーテキスト マークアップ言語と TeX はマークアップ言語ですが、Azure Cognitive Services は音声合成出力の制御に SSML を使用します。
Searchable: この属性により、フィールドを全文検索に含めることができます。ユーザーがカテゴリ フィールド内の単語を検索できるようにする必要があるため、この属性は必須です。
Facetable: ファセット クエリでフィールドを参照できるようにするかどうかを示します。この属性により、フィールドをフィルタリングと集計に使用できるようになります。ユーザーがカテゴリに基づいてドリルダウン フィルタリングを実行できるようにする必要があるため、この属性は重要です。
Retrievable: この属性により、フィールドが検索結果に確実に含まれます。カテゴリフィールドを検索結果に含めたいので、この属性は必要です。
Training API エンドポイントは、Settings paneWeb ポータルの Custom Vision サービス プロジェクトで利用できます。トレーニング キーもこのページで見つけることができます。Training API サービスへの呼び出しを承認するには、トレーニング キーが必要です。これら 2 つの情報を取得したら、CreateImages メソッドを使用する準備が整います。
適切な URL を特定したら、HTTP PUT リクエストでその URL を呼び出し、そのリクエストを本文に渡し、トレーニング キーを Training-Key という名前のリクエスト ヘッダーとして渡します。
SpeechSynthesizerオブジェクトを作成します。このオブジェクトは、テキストから音声への変換を実行し、スピーカー、ファイル、またはその他の出力ストリームに出力します。SpeechSynthesizerパラメータとして受け入れます:
オブジェクトSpeechConfig_
AudioOutputConfig出力結果の処理方法を指定するオブジェクト。
Keyframesショットを表すフレームです。それぞれは特定の時点のものです。キーフレーム間には時間のギャップが存在する場合がありますが、それらは一緒になってショットを表します。各キーフレームは高解像度画像としてダウンロードできます。
Text Moderation API によって考えられる PII 値が見つかった場合、JSON 応答には、テキストとテキスト内のインデックスの場所に関する関連情報が含まれます。
個人データ機能は、この情報の潜在的な存在を検出します。
電子メールアドレス
米国の住所
IPアドレス
米国の電話番号
Speech-to-Text の側面では、Azure Speech Serviceオーディオ ストリームをテキストに変換します。アプリケーションはこのテキストをユーザーに表示したり、コマンド入力として機能したりできます。このサービスは、SDK クライアント ライブラリ (サポートされているプラットフォームおよび言語用) または Representational State Transfer (REST) API のいずれかで使用できます。
音声サービスを使用すると、次のことが可能になります。
アプリケーションの範囲をモバイル、デスクトップ、Web 全体に拡張して、音声からテキストへの文字起こしを提供します。
Speech SDK のオープン REST インターフェイスを通じて、サポートされている複数の言語との間で簡単に翻訳できます。この API は、クラウドベースの自動音声翻訳サービス (機械翻訳とも呼ばれます) です。
テキスト入力を受け入れ、合成音声を使用してそのテキストの音声バージョンを出力できる Text-to-Speech 操作を実行します。
Language Understanding (LUIS) との統合を通じてエンティティ認識を実行します。
Speech-to-Text の側面では、Azure Speech Serviceオーディオ ストリームをテキストに変換します。アプリケーションはこのテキストをユーザーに表示したり、コマンド入力として機能したりできます。このサービスは、SDK クライアント ライブラリ (サポートされているプラットフォームおよび言語用) または Representational State Transfer (REST) API のいずれかで使用できます。
音声サービスを使用すると、次のことが可能になります。
アプリケーションの範囲をモバイル、デスクトップ、Web 全体に拡張して、音声からテキストへの文字起こしを提供します。
Speech SDK のオープン REST インターフェイスを通じて、サポートされている複数の言語との間で簡単に翻訳できます。この API は、クラウドベースの自動音声翻訳サービス (機械翻訳とも呼ばれます) です。
テキスト入力を受け入れ、合成音声を使用してそのテキストの音声バージョンを出力できる Text-to-Speech 操作を実行します。
Language Understanding (LUIS) との統合を通じてエンティティ認識を実行します。
Face API タスクは 5 つのカテゴリに分類されます。
• 検証: 2 つの顔が同じ人物に属している可能性をチェックします。
• 検出: 画像内の人間の顔を検出します。
• 識別: 顔を検索して識別します。
• 類似性: 類似した顔を検索します。
• グループ化: 視覚的な類似性に基づいて、未確認の顔をグループに整理します。
エンティティ認識スキルは、テキストからさまざまなタイプのエンティティを抽出します。このスキルは、Cognitive Services の Text Analytics によって提供される機械学習モデルを使用します。
サービスに非構造化テキストを提供すると、認識されたテキスト内のエンティティまたは項目のリストが返されます。このサービスは、Web 上のそのエンティティに関する詳細情報へのリンクを提供することもできます。エンティティは本質的に、特定のテキスト要素が分類されるタイプまたはカテゴリです。
指定されたオプションのうち、サービスは以下の 2 種類の認識をサポートします。
固有表現の認識
固有表現認識は、いくつかの事前定義されたクラスに従って分類されたテキスト内の項目を認識および識別する機能を提供します。プレビュー段階のバージョン 3 では、電話番号、社会保障番号、電子メール アドレス、銀行口座番号などの個人情報や機密情報など、より多くの項目を識別する機能が追加されます。
エンティティのリンク
エンティティのリンク機能は、識別されたエンティティの周囲に存在する可能性のあるあいまいさを取り除くのに役立ちます。文書には ARES などのエンティティが含まれている場合があります。ARES はギリシャの戦争の神を意味する場合もあれば、アマチュア無線緊急サービスの頭字語である場合もあります。Text Analytics は、このリンクを独自に作成できません。必要な認識を提供するには、必要な言語での知識ベースが必要です。これは、リンクされたエンティティを組織のエンティティ要素のリストにカスタマイズする方法です。
使いやすくカスタマイズ可能な異常検出: Metrics Advisor は、機械学習の知識を必要とせずに、データに最適なモデルを自動的に選択します。パラメータ調整とインタラクティブなフィードバックを使用して、データに適用されるモデルと将来の異常検出結果をカスタマイズできます。
複数のチャネルを介したリアルタイム通知: 異常が検出されると、Metrics Advisor は電子メール フック、Web フックなどのフックを使用して複数のチャネルを介してリアルタイム通知を送信できます。 、Teams フックと Azure DevOps フック。柔軟なアラート構成により、いつ、どこに通知を送信するかをカスタマイズできます。
詳細: Azure AI Metrics Advisor サービスとは何ですか? - Azure AI サービス | Microsoft Learn
ユーザー入力に基づいて意図を認識するように設計された Azure サービスは、Azure AI Speech です。このサービスは、インテントを認識する 2 つの方法を提供します1。インテントとは、フライトの予約、天気の確認、電話の発信など、ユーザーが実行したいことです。インテント認識を使用すると、アプリケーション、ツール、デバイスは、インテント レコグナイザーまたは会話型言語理解 (CLU) モデルで定義したオプションに基づいて、ユーザーが開始または実行したいことを判断できます。
Azure Machine Learning Service は、意思決定支援システムのシミュレーションと予測分析に使用できるモデルを構築、トレーニング、デプロイするための機能を提供します。
詳細: Azure Machine Learning とは何ですか? - Azure 機械学習 | Microsoft Learn
Azure Machine Learning Service は、意思決定支援システムのシミュレーションと予測分析に使用できるモデルを構築、トレーニング、デプロイするための機能を提供します。
詳細: Azure Machine Learning とは何ですか? - Azure 機械学習 | Microsoft Learn
異常検出は Metrics Advisor の中核機能ですが、フィードバック ループは人間の入力に基づいてモデルを改良するために重要です。
Azure AI Vision Spatial Analysis は、ビデオ ストリーム内の人の存在、動き、人口統計をリアルタイムで分析できます。
Azure Text to Speech サービスでは、Custom Neural Voice テクノロジを使用して音声フォントをカスタマイズできます。この機能を使用すると、ブランドやユースケースに合わせたカスタム音声フォントを構築できます。
Azure AI サービスを使用してテキスト ドキュメント内の機密情報を保護するには、Azure AI-Language が提供する個人識別情報 (PII) 検出機能を利用します。この機能により、非構造化テキスト内の機密情報を識別、分類、編集できます。機械学習と AI アルゴリズムを使用して、書き言葉を含むインテリジェントなアプリケーションを開発します。
Personalizer は、強化学習を使用してパーソナライズされたユーザー エクスペリエンスを提供する Azure AI サービスです。
Azure OpenAI Studio のコンテキストでは、Chat Completions API を使用して、これらのダイアログ ベースの対話を容易にすることができます。この API を使用すると、関数とユーザーの入力を組み込み、モデルの応答を使用して API または関数を呼び出し、関数からの応答を含めてチャット完了 API を再度呼び出して最終応答を取得できます。このプロセスにより、AI モデルとのスムーズな対話ベースの対話が可能になります。
開発者は、明確で説明的な指示を提供することで、Azure OpenAI モデルのパフォーマンスを最適化できます。このアプローチは、モデルがタスクをより深く理解し、より正確な応答を生成するのに役立ちます。複雑または曖昧な指示は、最適化されていないパフォーマンスにつながる可能性があります。
パターン マッチング: Speech SDK には、非常に厳密な方法で意図を認識するために使用できる埋め込みパターン マッチャーが用意されています。これは、オフラインでの迅速な解決策が必要な場合に便利です。これは、ユーザーが何らかの方法でトレーニングを受ける場合、またはインテントをトリガーするために特定のフレーズを使用することが予想される場合に特に効果的です。
会話型言語理解 (CLU): CLU を使用すると、ユーザーはカスタムの自然言語理解モデルを構築して、受信発話の全体的な意図を予測し、そこから重要な情報を抽出できます。 Speech SDK で CLU を使用するには、Speech リソースと Language リソースの両方が必要です。 Speech リソースはユーザーの音声をテキストに書き写すために使用され、Language リソースは発話の意図を認識するために使用されます
Azure AI を使用してテキストを英語からフランス語に翻訳するには、Azure Text Translation サービス 1 を使用する必要があります。これは、Translator サービスのクラウドベースの REST API 機能であり、ニューラル機械翻訳テクノロジを使用して、サポートされているすべての言語にわたって、ソースからターゲットへのテキストの迅速かつ正確なリアルタイム翻訳を可能にします。
Azure Cognitive Search では、インデクサーは、データ ソースからインデックスへのデータの移動を担当します。インデクサーは、サポートされている Azure データ ソースからメタデータとコンテンツを読み取ることができるソース固有のクローラーです。これは、検索インデックスへのデータの取り込みを簡素化するためにデータ ソースとともに使用されます。
ソース文書のコンテンツの言語がわかっている場合は、より適切な翻訳を取得するためにリクエストでソース言語を指定することをお勧めします。
このソリューションは目標を達成します。さらに多くの画像を追加すると、モデルのパフォーマンスが向上します。モデルをトレーニングする前に、画像にタグを付ける必要があります。 Smart Labeler は、アップロードされた画像に自動的にタグを付け、モデルを改善するために必要な手動の労力を軽減します。アップロードされた画像を使用して予測を改善するには、モデルを再トレーニングする必要もあります。再トレーニングにより、モデルの新しい反復が作成されます。アプリケーションが改良されたモデルを使用できるようになる前に、新しいイテレーションを公開する必要があります。
Microsoft.Skills.Util.DocumentExtractionSkill は、エンリッチメント パイプライン内のファイルからコンテンツを抽出するために使用される組み込みスキルです。
food(compact) ドメインを選択する必要があります。食品(コンパクト)ドメイン 果物や野菜の写真を分類するのに役立ちます。コンパクト モデルは軽量で、エッジ デバイス上で実行するためにエクスポートできます。
Excel ファイル形式を使用する必要があります。 QnA Maker ポータルの [設定] メニューで、[Excel のエクスポート] ボタンをクリックして、ナレッジ ベースを .xlsx ファイルにエクスポートできます。 T SV ファイル形式を使用することもできます。 QnA Maker ポータルの [設定] メニューで、[TSV のエクスポート] ボタンをクリックして、ナレッジ ベースを .tsv ファイルにエクスポートできます。
App Service Plan、Web アプリ、および Azure Bot リソースがなければ、パイプラインは何かを Azure にデプロイできないため、これらのリソースは必須です。
[ファイアウォールと仮想ネットワーク] で [アクセスを許可] フィールドを [無効] に設定する必要があります。この構成オプションを無効に設定すると、コグニティブ サービス リソースを消費するすべての要求が拒否されます。 プライベート エンドポイント接続は、コグニティブ サービスにアクセスするための排他的な方法になります。 また、プライベート エンドポイント接続の下にプライベート エンドポイントを作成する必要もあります。プライベート エンドポイントが有効になっている場合、コグニティブ サービスとターゲット VNet 間のトラフィックは、プライベート IP アドレスのみを使用して Microsoft バックボーン ネットワーク経由でルーティングされます。 Azure コグニティブ サービスには、VNet からプライベート IP アドレスが割り当てられます。
スコアリングプロファイルを追加する必要があります。スコアリング プロファイルはインデックス定義の一部であり、指定したフィールドに基づいて関連性の検索を強化します。製品が追加された日付を使用して、検索における関連性スコアを高めることができます。
returnFaceLandmarks パラメータを true に設定する必要があります。 Face API は、デフォルトで、瞳孔を含む 27 個の事前定義された顔のランドマーク ポイントを検出できます。 returnFaceLandmarks パラメーターを true に設定すると、瞳孔の座標をピクセル単位で取得できます。
ARM テンプレートは JavaScript Object Notation (JSON) データ形式で定義する必要があります。 ARM テンプレート内で、Azure Cognitive Services リソースのインフラストラクチャと構成を JSON 形式で定義できます。宣言構文を使用すると、プログラミング コードを記述せずに、Cognitive Services の種類、その場所、価格帯、その他の必要な展開パラメーターを指定できます。その後、Azure Portal、Azure コマンド ライン インターフェイス (CLI)、PowerShell、REST APIS、Azure Cloud Shell など、サポートされているデプロイ オプションのいずれかを使用してテンプレートをデプロイできます。
Microsoft.Bot.Builder.Al.Luis NuGet パッケージをインストールする必要があります。 C* ベースのボット プロジェクトでは、リモート LUIS サービスと対話するために Microsoft.Bot.Builder.Al.Luis NuGet パッケージが必要です。 LUIS サービスの接続の詳細は、appsetting.json ファイルから取得されます。
label.txt を使用する必要があります。エクスポートされたモデルは .zip アーカイブでダウンロードされ、labels.txt および model.pb ファイルが含まれます。 label.txt ファイルには、画像分類モデルで使用される分類ラベルが含まれています。 また、model.pb も使用する必要があります。 model.pb は、エクスポートされた TensorFlow モデルを含むプロトコル バッファー (ProtoBuf) ファイルです。 Python スクリプトにグラフとしてインポートできます。
同じランク API 呼び出しに対して複数の報酬を受け取った場合は、合計または最も早い集計方法が使用されます。 「Earliest」は、受け取った最も早いスコアを選択し、残りを破棄します。これは、重複呼び出しの可能性がある中で固有の報酬が必要な場合に便利です。 デフォルトの報酬を 1 に設定すると、ランク コールが発生した瞬間から Personalizer がランク コールの報酬値を収集する期間が設定されます。この値は、「Personalizer は報酬の呼び出しをどれくらい待ちますか?」という質問によって設定されます。この期間の後に到着した報酬は記録されますが、学習には使用されません。 1 分の更新頻度は、Personalizer を使用してアプリケーションのコードをデバッグする場合、デモを実行する場合、または機械学習の側面を対話的にテストする場合に役立ちます。
オーケストレーション ワークフローにエンティティを追加することは許可されていません。エンティティは、オーケストレーション ワークフロー内で相互に排他的です。
Microsoft.Skills.Custom.WebApiSkill を使用すると、カスタム Web API への HTTP 呼び出しを行うことで、AI エンリッチメント パイプラインの拡張性が可能になります。
facetable は通常、カテゴリ別のヒット数を含む検索結果のプレゼンテーションで使用されます。 Filterable は $filter クエリで参照され、key はインデックス内のドキュメントの一意の識別子です。
アクティブラーニングを有効にする必要があります。アクティブ ラーニングを有効にすると、QnA Maker はユーザー クエリを分析し、ナレッジ ベースの品質を向上させる代替質問を提案します。これらの提案を承認すると、代替質問としてナレッジ ベースに追加されるため、QnA Maker モデルを再トレーニングして顧客により良いサービスを提供できるようになります。
Cognitive Services アカウントのファイアウォールを有効にする場合は、サービスへのネットワーク アクセスを許可する必要があります。これを実現するには、特定の仮想ネットワークからのアクセスを許可するか、ファイアウォール ルールに IP 範囲を追加します。この状況では、アプリはインターネットに展開され、IP または IP 範囲をファイアウォール ルールに追加することで、特定のインターネット ホストへのアクセスを提供できます。
LUDown を使用する必要があります。 LUDown は、.lu ファイルを解析するために使用するコマンド ライン ツールです。 .lu ファイルにインテント、エンティティ、パターンが含まれている場合、LUDown ツールは LUIS モデルを JSON 形式で生成できます。 .lu ファイルに質問と回答のペアが含まれている場合、LUDown は、このシナリオで必要とされる JSON 形式でナレッジ ベースを生成できます。
これらのエンドポイントは両方とも、Computer Vision API にアクセスし、必要な画像のサムネイルを生成するために使用できます。コグニティブサービス.azure.com ドメインを使用する場合は、Computer Vision コグニティブ サービスの名前を指定する必要があります。
モデルは LU 形式でエクスポートする必要があります。 Ludown (LU) は、LUIS または QnA Maker アプリケーションで発話、意図、およびエンティティを表す簡単な方法です。 .lu 形式は人間が判読できるため、.json 形式よりも推奨されます。 ludown translation コマンドを実行して、発話を他の言語に翻訳することも必要です。その後、モデルを LUIS または QnA Maker にインポートできます。
OpinionMining=true はアスペクトベースのセンチメント分析を追加します。これにより、センチメントがより詳細になり、単一の文でポジティブとネガティブを返すことができます。 loggingOptOut=true はログ記録をオプトアウトし、StringIndexType=TextElements_v8 は返されたオフセット値と長さの値を TextElements に対応するように設定します。
この機能を提供する唯一の視覚機能は空間分析です。OCR、画像分析、顔検出はビデオ フィード内の人の存在を分析することを目的としていません。
この解決策は目標を達成できません。フレーズ リストは、モデルでドメイン固有の語彙として使用できる、類似した単語またはフレーズのリストです。たとえば、旅行アプリの場合、フレーズ リスト機能としてシングル、ダブル、クイーン、キング、ツインを追加すると、顧客がホテルの部屋タイプの好みを示していることを発話からアプリが認識できるようになります。フレーズ リスト機能を使用すると、LUIS アプリの意図とエンティティの理解の品質を向上させることができます。 LUIS アプリのトレーニングと予測におけるアクセント付き文字の正規化には役立ちません。
最初のステップとして、HTTP POST を使用したトレーニングをリクエストする必要があります。 LUIS アプリのエンドポイントを指定して、POST 要求を https://<endpoint>/luis/api/v2.O/apps/<appld>/versions/<versionld>/train に送信する必要があります。アプリケーション ID とアクティブなバージョン ID。 POST リクエストは、トレーニング プロセスを非同期的に開始します。 次に、HTTP GET を使用してトレーニング ステータスをリクエストする必要があります。 GET リクエストで同じ URL https://<endpoint>/luis/api/v2.O/apps/<appld>/versions/<versionld>/train を呼び出す前に、まずトレーニングをリクエストする必要があります。応答として、ターゲット LUIS アプリ内のすべてのモデル (意図とエンティティ) のトレーニング ステータスを受け取ります。 ステータス フィールドには、Success、UpToDate、InProgress、または Fail のいずれかの値が含まれる場合があります。
最初に SpeechTranslationConfig クラスをインスタンス化する必要があります。 SpeechTranslationConfig は、音声翻訳構成のインスタンスを作成します。コンストラクターのパラメーターを通じて、キー、関連するリージョン、エンドポイント、ホスト、認証トークンなど、Speech サービスに関連するすべてのアクセス詳細を渡します。
ボットをデバッグするには、ボット フレームワーク エミュレーター ツールを使用する必要があります。 Bot Framework Emulator は、ボットに接続し、ボットによって送受信されるメッセージを検査できる Windows デスクトップ アプリケーションです。 ngrok も使用する必要があります。 ngrok ツールは Bot Framework Emulator と統合されており、Bot Framework Emulator が Azure で実行されている運用 Web アプリなどのリモート エンドポイントに接続できるようになります。 ngrok がない場合、Bot Framework Emulator はコンピューター上でローカルに実行されているボットにのみ接続できます。また、ngrok を使用すると、Bot Framework Emulator がコンピューター上のファイアウォール (トンネル) をバイパスして Azure ボット サービスに接続し、ボットとの間で送受信されるメッセージを傍受できるようになります。
この解決策は目標を達成できません。ファイル プロジェクションを使用して、Al エンリッチメント パイプライン出力を Blob Storage に保存できます。ただし、ファイル プロジェクションは、この場合に必要な JSON コンテンツではなく、ドキュメントから抽出された画像などのバイナリ オブジェクトを対象としています。
最大サイズが 30 MB の画像を含む JPEG および PNG 画像形式のデータセットを選択する必要があります。 Azure Computer Vision Read 呼び出しは、JPEG と PNG 形式の両方に加え、GIF と BMP 形式もサポートしており、画像ファイルのサイズは 50 メガバイト (MB) 未満です。 100 x 100 ピクセルを超える寸法の BMP 画像データセットを選択することもできます。 BMP 形式がサポートされており、Computer Vision Read 呼び出しでは、画像のサイズが 50 x 50 より大きく、最大 10000 x 10000 ピクセルである必要があります。 サイズが 2 MB、寸法が 200 x 300 ピクセルの GIF 画像を選択することもできます。 Computer Vision Read 呼び出しでは、画像サイズは 50 MB を超えてはならず、サイズは 50 x 50 ピクセルを超える必要があります。
Cosmos DB を使用して状態を保存し、会話状態コンテナーに Time To Live (TTL) を設定する必要があります。 Cosmos DB は、コンテナー上で定義される T TL をサポートしています。これにより、期間が経過するとコンテナーからデータが自動的に削除されます。会話状態コンテナーに Time To Live (TTL) も設定する必要があります。会話状態には、会話で注文に追加された製品の詳細が保持されます。非アクティブな時間が経過したときに、保存された会話状態の内容を自動的に削除する必要があります。
この解決策は目標を達成できません。 Personalizer は、ユーザーに表示する最適なコンテンツを決定します。ユーザーが提供したアダルト画像、際どい画像、残虐な画像などの攻撃的なコンテンツは分析されません。
不一致とは、間違った API キーが使用されたことを意味します。別の種類の Cognitive Services リソースの API キーまたはエンドポイントを指定した場合は、Azure portal の Cognitive Services リソースの [キーとエンドポイント] セクションで API キーとサービス リージョンを見つけます。 API キーが無効な場合は、API キーが正しいリージョンのものであることを確認する必要があります。 API キーが割り当てを超過した場合は、価格レベルをアップグレードするか、追加の割り当てが利用可能になるまで待つことができます。 Azure portal の Cognitive Service リソースの [価格レベル] セクションでレベルを見つけます。リソースがオフラインの場合、不一致エラーは生成されません。
filterable を使用する必要があります。 filterable プロパティは、インデックス内のフィールドをフィルターとして使用できるかどうか、および検索によって返されるドキュメントのリストを制限できるかどうかを指定します。フィルター可能なプロパティは、インデックス内のフィールドに定義されたブール値です。
キー フレーズ抽出はテキスト内の主要な概念を迅速に識別するために使用されますが、他の機能は長いテキスト ドキュメントからキー フレーズを返しません。
予約は、Azure 仮想マシンの唯一の課金レベル オプションです。
ダイレクト ライン音声を使用する必要があります。 Direct Line speech は、ユーザーが音声を介してボットと対話できるようにするチャネルです。 Direct Line 音声では、Cognitive Service Speech-to-Text サービスを使用します。
GetlterationPerformance を使用する必要があります。 GetlterationPerformance は、モデルのトレーニングの反復に関するパフォーマンス情報を返します。分類モデルの場合、これには精度、適合率、および再現率のメトリクスが含まれます。
80 ~ 100 はチューニング ファイルを定義し、その他はカスタム トランスレータで一般的な他のファイル タイプを定義します。
ビデオをアップロードし、ビデオ インデックスを取得し、各キーフレームのサムネイルを取得する必要があります。 3 つの API 呼び出しを実行する必要があります。 ビデオをアップロードし、サムネイルの ZIP ファイルをダウンロードするのは、Azure portal を経由するパスです。サムネイル リクエストの正しいパラメータを知るにはインデックスが必要です。
結果は次のように解釈する必要があります。モデルが 100 個のオブジェクトを鳥として識別した場合、そのうち 56 個は実際に鳥であるということになります。精度は、モデルがポジティブとラベル付けした画像のうち、実際にポジティブであった画像の数を示します。モデルが鳥として識別した画像 100 枚ごとの精度は 56% で、56 枚の画像が実際に鳥でした。
この解決策は目標を達成できません。 Smart Labeler は、アップロードされた画像に自動的にタグを付け、モデルの改善に必要な手動の労力を軽減します。ただし、Smart Labeler だけでは、アプリケーションでモデルを使用するために必要なすべてのアクションを実行できるわけではありません。モデルもトレーニングして公開する必要があります。
トレース アクティビティは、ボットが Bot Framework Emulator に送信できるアクティビティです。トレース アクティビティを使用すると、ローカルで実行されているボットに関する情報を表示できるため、ボットを対話的にデバッグできます。 テスト ダイアログとモック ダイアログは単体テストに使用されます。
このソリューションは目標を達成します。さらに多くの画像を追加すると、モデルのパフォーマンスが向上します。モデルをトレーニングする前に画像にタグを付ける必要があります。アップロードされた画像には手動でタグを付けることができます。アップロードされた画像を使用して予測を改善するには、モデルを再トレーニングする必要もあります。再トレーニングにより、モデルの新しい反復が作成されます。アプリケーションが改良されたモデルを使用できるようにするには、新しいイテレーションを公開する必要があります。
添付プロパティを使用する必要があります。このプロパティは、Facebook チャネル固有の通知で添付ファイルの種類を指定するために必要です。サポートされている添付ファイルの種類の値は、画像、音声、ビデオ、ファイル、およびテンプレートです。このシナリオでは、attachment プロパティを使用して、ボットの Facebook メッセージにブランド ロゴを追加します。 notification_type プロパティも使用する必要があります。このプロパティを使用すると、プッシュ通知のタイプを選択できます。サポートされている通知タイプは、REGULAR、SILENT_PUSH、および NO_PUSH です。 REGULAR はデフォルト設定で、音や振動による通知が有効になります。 SILENT_PUSH を使用すると、Facebook ユーザーは画面上の通知のみを受け取ります。 NO_PUSH を使用すると、アプリ内通知を無効にすることができます。
この状況では、TPS が増加するため、自動スケーリングを有効にする必要があります。 2 番目の Computer Vision サービスを展開し、スロットリングが発生したときに 2 番目のサービスに切り替えるように App1 を構成することは、最小労力の原則に従いません。予測可能なコストのためにコミットメント プランが使用されます。
オブジェクト検出は、適用されたラベルが見つかる画像内の座標を返します。一方、画像分類は、1 つ以上のラベルを画像全体に適用します。
Run Indexer REST API オペレーションを使用する必要があります。この操作は通常、スケジュールに従って実行されますが、オンデマンドで実行することもできます。テスト結果をアップロードした後に検索に含めるには、新しいドキュメントにインデックスを付ける必要があります。したがって、テスト結果はアップロード後すぐにインデックスを作成する必要があります。この操作では、新規ドキュメントと更新されたドキュメントがすぐにインデックスに組み込まれ、次にスケジュールされた実行を待ちません。
source プロパティと tableName プロパティを定義する必要があります。 Azure Cognitive Search では、Cognitive Services の組み込みの Text Analytics スキルを使用できます。そのようなスキルの 1 つがキー フレーズ抽出です。抽出されたキー フレーズは、Azure Table Storage (TAB3) に保存される必要があります。エンリッチメントをテーブル プロジェクションとしてナレッジ ストアに保存する場合は、ソースとテーブル名を指定する必要があります。 ソースは投影のパスです。この場合、ソースは document/tableprojection/keyPhrases/* になります。 Tablename は、Azure Table storage に作成するテーブルの名前です。
顔認証を使用する必要があります。検証は 1 対 1 マッチングとも呼ばれ、2 つの画像の顔を比較して、それらが同じ人物に属しているかどうかを検証します。 Azure Face サービスは、Verify API を通じて顔検証アルゴリズムを公開します。
ナレッジ ストアは、ナレッジ マイニングやデータ サイエンスなどの下流アプリに使用されます。ナレッジ ストアはスキルセット内で定義されます。その定義によって、強化されたドキュメントが Azure Storage のテーブルとして投影されるかオブジェクト (ファイルまたは BLOB) として投影されるかが決まります。
翻訳を実行するにはミドルウェアを使用する必要があります。ミドルウェアは、チャネルとボットの間に追加できるクラスです。受信メッセージをボットに渡す前に、ミドルウェアで前処理して翻訳することができます。
Form Recognizer は、レシートなどのドキュメントを処理するように設計されており、このような種類のドキュメントから情報を抽出するための事前構築されたモデルを提供します。
キーフレーズをインデックスに追加するには、outputFieldMappings を指定する必要があります。プロジェクションは、ナレッジ ストアに保存される Cognitive Services の強化されたドキュメントです。投影によりデータが強化され、形成されます。キー フレーズ エンリッチメントは表形式のデータとして投影され、Azure テーブル ストレージ アカウント TAB3 に保存されます。テーブル プロジェクションでは、スキルセットによって生成されたデータを、sourceFieldName と targetFieldName を指定した OutputFieldMappings を使用してナレッジ ストアにマッピングする必要があります。抽出されたキー フレーズはインデックスに追加する必要があります。インデクサーは、スキルセットからの出力をインデックスに追加します。 OutputFieldMappings は次のように定義する必要があります。 「 「outputFieldMappings」 : [ { "sourceFieldName": "/document/metadata_storage_content_type/keyphrases" 、 "ターゲットフィールド名": "キーフレーズ」 } また、インデクサーで skillsetName、skillsetl を指定する必要があります。インデクサーを単一のスキルセットに関連付けて、データを強化できます。データを強化するには、インデクサーでスキルセットを定義して指定する必要があります。
Azure App Service と Azure Functions を選択する必要があります。 Bot Framework Composer で構築されたボットは、Web アプリとして Azure App Service に公開することも、Azure Functions でサーバーレス アプリケーションとして実行することもできます。 Azure Cognitive Services、Azure DevTest Labs、または Azure VM を選択しないでください。現在、Bot Framework Composer は、公開されたボットのターゲット宛先として Azure App Service と Azure Functions のみをサポートしています。
アニメーション GIF と短いビデオをサポートしているため、AnimationCard は正しいです。 AdaptiveCard はテキスト、音声、画像、ボタン、入力フィールドの組み合わせをサポートしているため、間違いです。 HeroCard は 1 つの大きな画像、1 つ以上のボタン、およびテキストをサポートしているため、これも間違っています。
一般 (コンパクト) [SI] ドメインを選択する必要があります。コンパクト ドメインは、エッジ デバイスでのリアルタイム画像処理とオブジェクト検出の制約に合わせて最適化されています。一般 (コンパクト) [SI] モデルには後処理ロジックが必要ないため、さまざまなエッジ デバイスからより一貫した出力を取得できます。
エンティティを選択する必要があります。 LUIS には、日付、測定値、時刻、数値、通貨などの一般的な種類の情報を認識するための、事前に構築されたエンティティのパッケージが含まれています。 builtin.datetimeV2 エンティティにより、モデルは運動リマインダーを設定するための日付と時刻の情報を識別できるようになります。
テキストに依存しない検証とは、話者が登録段階と検証段階で日常言語で話すことができることを意味します。これは、アプリの音声プロファイルを構成するときに使用する必要がある音声プロファイルです。 テキスト依存の検証とは、講演者が登録フェーズと検証フェーズの両方で使用する同じパスフレーズを選択する必要があることを意味します。 話者の識別は、登録された話者のグループ内の未知の話者の身元を特定するのに役立ちます。
このような結果は、少なくとも 1 つの文が肯定的で、残りが否定的である場合に生成される可能性があります。文書が混合としてラベル付けされるには、少なくとも 1 つの文が肯定的であり、少なくとも 1 つの文が否定的である必要があります。
0 より大きい値でポジティブな感情を示し、0 より小さい値でネガティブな感情を示します。
すべてのボットのメッセージング エンドポイントは https://FQDN/api/messages であるため、有効なオプションは https://chatbot.azurewebsites.net/api/messages のみです。
この解決策は目標を達成できません。テーブル プロジェクションを使用して、有効な JSON 出力を Azure Table Storage に保存できます。テーブル投影のコンテンツは行と列として表されるため、図式化された形状を定義できます。この場合は必要ですが、テーブル プロジェクションを BLOB ストレージに保存しません。
Turn.activity.locale 事前構築プロパティは、ユーザーが送信したメッセージのテキスト フィールドの言語コードを保持しますが、他のプロパティは Composer では使用できません
マーケティング テキスト ドキュメントを追加してモデルを再トレーニングする必要があります。 Speech-to-Text モデルの精度は、関連するテキスト文、人間がラベル付けしたトランスクリプトを含む音声、発音を含む新しい単語という 3 つの主要なカテゴリに分類される新しいトレーニング データを追加することで向上できます。追加のマーケティング データ、製品パンフレット、その他の関連テキスト文により、再トレーニングされたモデルの精度が向上します。 人間が文字起こしした呼び出しを追加してモデルを再トレーニングすることもできます。サンプル音声は、会社の製品に関連する音声の全範囲をカバーする必要があります。このような人間が標識した転写物は、精度を最大限に向上させます。
検証ルールを使用する必要があります。検証ルールは、true または false を返す式です。式が true の場合、ユーザー入力は有効です。入力された数値が 1 から 10 までの間であることを確認するための検証ルールを作成できます。
現在、画像にはパブリック URL 経由でアクセスできる必要があるため、抽出のために質問応答にアップロードされたドキュメント内の画像の抽出はサポートされていません。
/analyze エンドポイントを使用する必要があります。分析エンドポイントを使用すると、複数の機能を 1 回の呼び出しで実行できます。キー フレーズと固有表現認識の両方を 1 回の呼び出しで実行できるため、API 呼び出しが減ります。 Text Analytics API も非同期的に呼び出す必要があります。分析エンドポイントは非同期でのみ使用できます。 Text Analytics API には、名前付きエンティティとキー フレーズを抽出する機能が含まれています。
リソースの他の情報の中でエンドポイントを取得するには、Cognitive Service アカウントの名前とリソース グループを指定する必要があるため、az sinnerservices account show --name myresource --resource-group sinner-services-resource-group が唯一の有効なコマンド。
感情分析を選択する必要があります。感情分析機能は、ポジティブまたはネガティブな感情に関する手がかりをテキストからマイニングすることで、人々があなたのブランドやトピックについてどう思っているかを判断するのに役立ちます。この機能は、ユーザーのコメントを否定的、中立的、肯定的なラベルに分類するのに役立ちます。また、各センテンスまたはコメントごとに、それぞれの感情に対する O ~ 1 の信頼度スコアを返します。感情分析は、作業対象のテキストの量が少ない場合に最適に機能します。 キーフレーズ抽出も選択する必要があります。キー フレーズ抽出機能は、特定のテキスト内の主要な概念を迅速に識別するのに役立ちます。キー フレーズの抽出は、処理対象のテキストが大量にある場合に最適に機能します。この機能は、特定のユーザー コメント内の主要な論点を抽出して識別できます。
説明
この解決策は目標を達成できません。 LUIS ポータルでアプリの句読点の正規化を有効にすると、モデルがトレーニングされる前、またはアプリのエンドポイント クエリが予測される前に、発話からドット、コンマ、括弧などの句読点を削除できます。ただし、アクセント付き文字の影響は排除されません。
この解決策は目標を達成できません。 Personalizer は、意思決定支援ソリューションのためのコグニティブ サービスです。オンライン ショッピングのパターンなど、ユーザーのリアルタイムの行動を分析し、アプリが表示する最適なコンテンツ アイテムを選択できるようにします。 Personalizer は、セキュリティ カメラからのビデオ ストリームを分析して、定義された対象エリア内の人数をカウントしたり、必要なイベントをトリガーしたりすることはできません。
Azure portal からの予算を使用すると、特定のサービスを対象とした支出制限を構成できます。予算を超過した場合に電子メールを送信したり、特定のアクションを実行したりするように予算を構成できます。
Cognitive Search プライベート エンドポイントを使用する必要があります。プライベート エンドポイントを使用すると、ソリューションはプライベート リンクを介して Azure Cognitive Search のインデックス内のデータにアクセスできます。 Cognitive Search プライベート エンドポイントは VNet で直接公開され、分析ソリューションと Cognitive Search リソース間のトラフィックは、パブリック インターネットに公開されることなく Microsoft バックボーン ネットワーク上を通過します。
Anomaly Detector は、時系列データ内で外れ値または傾向から外れているデータを検出します。ユーザーが提供したアダルト画像、際どい画像、残虐な画像などの攻撃的なコンテンツは分析されません。
人物と住所は名前と住所を検出します。 PersonType はジョブロールも削除します。 IP では IP アドレスも削除されます。
Form Recognizer は、機械学習テクノロジーを使用して自動データ処理ソフトウェアを構築できるサービスです。これにより、テキストとキー/値のペアを識別して抽出できます。 Metrics Advisor は AI を使用して、時系列データのデータ監視と異常検出を実行します。イマーシブ リーダーは、新しい読者、言語学習者、および学習の違いがある人々の読解力を向上させるためのテクニックを実装したツールです。 Azure Cognitive Search は、関連コンテンツを大規模に特定して探索するのに役立つクラウド検索サービスです。
このソリューションは目標を達成します。 NormalizeDiacritics 設定を true に設定すると、LUIS はアクセント付き文字 (発音記号とも呼ばれます) を通常の文字に置き換えます。このような正規化により、アプリのトレーニングと予測中に発音記号の影響を無視できます。この設定は、スペイン語、ポルトガル語、オランダ語、フランス語、ドイツ語、イタリア語などのサポートされている言語でのみ使用できます。
この解決策は目標を達成できません。プロジェクトをエクスポートおよびインポートすることによって、プロジェクトをコピーします。新しいイメージを追加してタグ付けするだけでは、アプリケーションでモデルを使用するには十分ではありません。モデルもトレーニングして公開する必要があります。
Form Recognizer は、機械学習を使用して、指定されたドキュメントから情報を自動的に抽出できます。 Metrics Advisor、Application Insights、および Azure Cognitive Service for Language では、スキャンされたレシートから特定のデータを抽出することはできません。
ウォーターフォール ダイアログは一連のステップを定義し、ボットが直線的なプロセスを通じてユーザーをガイドできるようにします。これらは通常、コンポーネント ダイアログのコンテキスト内で動作するように設計されています。 アクション ダイアログは Composer でのアクションの実装をサポートしており、この場合、質問ダイアログと AskUser ダイアログは使用できません。
Azure Bot Service は、チャットボットを必要なチャネルに接続するために使用できる Azure の唯一のサービスです。 Form Recognizer、Metrics Advisor、および Azure Immersive Reader では、チャットボットを Teams および Web チャットに接続できません。
単一または複数のサービスのサブスクリプション キーを使用して、Cognitive Services に対する認証を行うことができます。 Azure AD サービス プリンシパルとロールベースのアクセス制御 (RBAC) を使用して、Cognitive Services に対して認証することもできます。 Cognitive Services は、SAML トークンまたは Kerberos を使用した認証をサポートしていません。
半構造化されたコンテンツから質問と回答のシステムを構築できるため、カスタムの質問回答を含める必要があります。
コア アシスタント ボットは、基本的なアシスタント テンプレート (以前の仮想アシスタント テンプレートに相当) であり、雑談、曖昧さ回避、ユーザー フィードバックなど、より洗練された会話エクスペリエンスをサポートする幅広いコア アシスタント機能を提供します。デフォルトで言語理解と質問応答が含まれています。
言語生成を使用する必要があります。言語生成により、ボットはさまざまなテキスト フレーズで応答できるようになり、ユーザーとのより自然な会話が作成されます。 アダプティブ式も使用する必要があります。アダプティブ式は、言語生成テンプレートに記述された条件を評価するために言語生成で使用されます。ボットのメモリ状態を使用した言語生成と適応式の組み合わせにより、ボットに応答ロジックを追加することなく、ボットはさまざまな方法で応答できます。
Computer Vision を組み込みのスキル タイプとして使用できます。 Azure Cognitive Search は、コンピューター ビジョン ドメインからの組み込みの画像処理スキルを提供し、光学式文字認識 (OCR) でテキストを抽出し、視覚的特徴分析を実行します。 Microsoft.Skills.Vision.OcrSkill および Microsoft.Skills.Vision.lmageAnalysisSkill を追加することで、Computer Vision 機能を有効にできます。 Text Analytics を組み込みのスキル タイプとして使用することもできます。 Azure Cognitive Search は、Text Analytics ドメインからの組み込みの自然言語処理スキルを提供し、言語の検出、キー フレーズの抽出、エンティティの認識、感情と個人を特定できる情報 (PII) の検出を行います。このドメインの組み込みスキルには、Microsoft.Skills.Text.LanguageDetectionSkill、Microsoft.Skills.Text.KeyPhraseExtractionSkill、Microsoft.Skills.Text.V3.EntityRecognitionSkill、Microsoft.Skills.Text.V3.SentimentSkill、Microsoft.Skills.Text が含まれます。 .PllDetectionSkill など。
オブジェクト プロジェクションを使用すると、エンリッチされたドキュメントを JSON ファイルとして Blob Storage に保存できます。保存されたドキュメントには、ソースドキュメントのコンテンツだけでなく、エンリッチメントやスキル出力も JSON 形式で保持されます。
Azure Table Storage、Azure Data Lake Gen2、および Azure Cosmos DB を選択する必要があります。インデクサーは、外部の Azure データ ソースから検索可能なテキストとそれぞれのメタデータを抽出するクローラーです。これにより、ソース データと Azure Cognitive Search インデックス間の検索インデックス マッピングが設定されます。 Azure Table Storage、Azure Data Lake Gen2、Azure Cosmos DB はすべて、インデクサーによってデータ ソースとしてサポートされています。
API によって返されるのは、特定の色のセットのみです。返される可能性のある色のセットは、黒、青、茶色、グレー、緑、オレンジ、ピンク、紫、赤、青緑、白、黄色です。
パーティションを追加する必要があります。パーティションは、データをさまざまなコンピューティング リソースに分割します。これには、低速で大規模なクエリのパフォーマンスが向上する効果があります。
Form Recognizer で請求書を処理している場合は、カスタム スキルを作成する必要があります。 Azure Form Recognizer は、請求書などの構造化ドキュメントからテキストを分析して抽出できるサービスです。 Azure Cognitive Search には、Al エンリッチメント パイプラインで Form Recognizer の機能を適用するための組み込みスキルは提供されていません。このため、カスタム スキルを作成する必要があります。 Bing Entity Search を使用して特定の地理的位置を説明している場合は、カスタム スキルも作成する必要があります。 Bing Entity Search 機能は、組み込みのコグニティブ スキルとして Azure Cognitive Search では使用できません。このため、カスタム スキルを構築し、プログラムで Bing Entity Search API を呼び出して、指定された場所の説明を返す必要があります。
このソリューションは目標を達成します。 Content Moderator は、成人向け、際どい、または残虐なコンテンツを含む可能性のある画像など、攻撃的な可能性のあるコンテンツを識別する認知サービスです。このようなコンテンツには自動的にフラグが付けられ、人間がポータルで確認できるようになります。
役割を追加する必要があります。ロールはエンティティに追加され、フライトの出発地と目的地などのさまざまなコンテキストを区別します。このシナリオでは、事前構築された geographyV2 エンティティにロールを追加できます。
アダプティブ カードを選択する必要があります。アダプティブ カードは、テキスト、音声、画像、ボタン、入力フィールドを任意に組み合わせて含めることができる、カスタマイズ可能なタイプのリッチ カードです。たとえば、複数の種類のアクションを追加したり、ボット ユーザーからの入力を収集したり、別のカードを表示したりするなど、特定のニーズに合わせて調整できます。
説明
food(compact) ドメインを選択する必要があります。食品(コンパクト)ドメイン 果物や野菜の写真を分類するのに役立ちます。コンパクト モデルは軽量で、エッジ デバイス上で実行するためにエクスポートできます。
facetable は通常、カテゴリ別のヒット数を含む検索結果のプレゼンテーションで使用されます。Filterable は $filter クエリで参照され、key はインデックス内のドキュメントの一意の識別子です。
この解決策は目標を達成できません。ファイル プロジェクションを使用して、Al エンリッチメント パイプライン出力を Blob Storage に保存できます。ただし、ファイル プロジェクションは、この場合に必要な JSON コンテンツではなく、ドキュメントから抽出された画像などのバイナリ オブジェクトを対象としています。
LUDown を使用する必要があります。LUDown は、.lu ファイルを解析するために使用するコマンド ライン ツールです。.lu ファイルにインテント、エンティティ、パターンが含まれている場合、LUDown ツールは LUIS モデルを JSON 形式で生成できます。.lu ファイルに質問と回答のペアが含まれている場合、LUDown は、このシナリオで必要とされる JSON 形式でナレッジ ベースを生成できます。
このソリューションは目標を達成します。さらに多くの画像を追加すると、モデルのパフォーマンスが向上します。モデルをトレーニングする前に、画像にタグを付ける必要があります。Smart Labeler は、アップロードされた画像に自動的にタグを付け、モデルを改善するために必要な手動の労力を軽減します。アップロードされた画像を使用して予測を改善するには、モデルを再トレーニングする必要もあります。再トレーニングにより、モデルの新しい反復が作成されます。アプリケーションが改良されたモデルを使用できるようになる前に、新しいイテレーションを公開する必要があります。
パターン マッチングまたは LUIS を使用する必要があります。Speech ソフトウェア開発キット (SDK) には、意図を認識する 2 つの方法があります。1 つ目はパターン マッチングです。これは、簡単な指示や、ユーザーに使用するように指示された特定のフレーズに使用できます。Language Understanding (LUIS) モデルは、Speech SDK を使用して統合し、自然言語でより複雑な意図を認識できます。
スコアリングプロファイルを追加する必要があります。スコアリング プロファイルはインデックス定義の一部であり、指定したフィールドに基づいて関連性の検索を強化します。製品が追加された日付を使用して、検索における関連性スコアを高めることができます。
最初に SpeechTranslationConfig クラスをインスタンス化する必要があります。SpeechTranslationConfig は、音声翻訳構成のインスタンスを作成します。コンストラクターのパラメーターを通じて、キー、関連するリージョン、エンドポイント、ホスト、認証トークンなど、Speech サービスに関連するすべてのアクセス詳細を渡します。
returnFaceLandmarks パラメータを true に設定する必要があります。Face API は、デフォルトで、瞳孔を含む 27 個の事前定義された顔のランドマーク ポイントを検出できます。returnFaceLandmarks パラメーターを true に設定すると、瞳孔の座標をピクセル単位で取得できます。
オーケストレーション ワークフローにエンティティを追加することは許可されていません。エンティティは、オーケストレーション ワークフロー内で相互に排他的です。
オーケストレーション ワークフローにエンティティを追加することは許可されていません。エンティティは、オーケストレーション ワークフロー内で相互に排他的です。
モデルは LU 形式でエクスポートする必要があります。Ludown (LU) は、LUIS または QnA Maker アプリケーションで発話、意図、およびエンティティを表す簡単な方法です。.lu 形式は人間が判読できるため、.json 形式よりも推奨されます。ludown translation コマンドを実行して、発話を他の言語に翻訳することも必要です。その後、モデルを LUIS または QnA Maker にインポートできます。
Cognitive Services アカウントのファイアウォールを有効にする場合は、サービスへのネットワーク アクセスを許可する必要があります。これを実現するには、特定の仮想ネットワークからのアクセスを許可するか、ファイアウォール ルールに IP 範囲を追加します。この状況では、アプリはインターネットに展開され、IP または IP 範囲をファイアウォール ルールに追加することで、特定のインターネット ホストへのアクセスを提供できます。
ソース文書のコンテンツの言語がわかっている場合は、より適切な翻訳を取得するためにリクエストでソース言語を指定することをお勧めします。
フレーズ リストは、モデルでドメイン固有の語彙として使用できる、類似した単語またはフレーズのリストです。たとえば、旅行アプリの場合、フレーズ リスト機能としてシングル、ダブル、クイーン、キング、ツインを追加すると、顧客がホテルの部屋タイプの好みを示していることを発話からアプリが認識できるようになります。フレーズ リスト機能を使用すると、LUIS アプリの意図とエンティティの理解の品質を向上させることができます。LUIS アプリのトレーニングと予測におけるアクセント付き文字の正規化には役立ちません。
Microsoft.Skills.Custom.WebApiSkill を使用すると、カスタム Web API への HTTP 呼び出しを行うことで、AI エンリッチメント パイプラインの拡張性が可能になります。
OCR は、画像からテキストを抽出できる唯一の視覚機能です。
Microsoft.Bot.Builder.Al.Luis NuGet パッケージをインストールする必要があります。AC* ベースのボット プロジェクトでは、リモート LUIS サービスと対話するために Microsoft.Bot.Builder.Al.Luis NuGet パッケージが必要です。LUIS サービスの接続の詳細は、appsetting.json ファイルから取得されます。
Microsoft.Skills.Util.DocumentExtractionSkill は、エンリッチメント パイプライン内のファイルからコンテンツを抽出するために使用される組み込みスキルです。
OpinionMining=true はアスペクトベースのセンチメント分析を追加します。これにより、センチメントがより詳細になり、単一の文でポジティブとネガティブを返すことができます。loggingOptOut=true はログ記録をオプトアウトし、StringIndexType=TextElements_v8 は返されたオフセット値と長さの値を TextElements に対応するように設定します。
アクティブラーニングを有効にする必要があります。アクティブ ラーニングを有効にすると、QnA Maker はユーザー クエリを分析し、ナレッジ ベースの品質を向上させる代替質問を提案します。これらの提案を承認すると、代替質問としてナレッジ ベースに追加されるため、QnA Maker モデルを再トレーニングして顧客により良いサービスを提供できるようになります。
テキストに依存しない検証とは、話者が登録段階と検証段階で日常言語で話すことができることを意味します。これは、アプリの音声プロファイルを構成するときに使用する必要がある音声プロファイルです。テキスト依存の検証とは、講演者が登録フェーズと検証フェーズの両方で使用する同じパスフレーズを選択する必要があることを意味します。話者の識別は、登録された話者のグループ内で不明な話者の ID を特定するのに役立ちます。
ナレッジ ストアは、ナレッジ マイニングやデータ サイエンスなどの下流アプリに使用されます。ナレッジ ストアはスキルセット内で定義されます。その定義によって、強化されたドキュメントが Azure Storage のテーブルとして投影されるかオブジェクト (ファイルまたは BLOB) として投影されるかが決まります。
感情分析を選択する必要があります。感情分析機能は、ポジティブまたはネガティブな感情に関する手がかりをテキストからマイニングすることで、人々があなたのブランドやトピックについてどう思っているかを判断するのに役立ちます。この機能は、ユーザーのコメントを否定的、中立的、肯定的なラベルに分類するのに役立ちます。また、それぞれの感情の各文またはコメントに対して、0 から 1 の間の信頼スコアも返します。感情分析は、作業対象のテキストの量が少ない場合に最適に機能します。キーフレーズ抽出も選択する必要があります。キー フレーズ抽出機能は、特定のテキスト内の主要な概念を迅速に識別するのに役立ちます。キー フレーズの抽出は、処理対象のテキストが大量にある場合に最適に機能します。この機能は、特定のユーザー コメント内の主要な論点を抽出して識別できます。
オブジェクト プロジェクションを使用すると、エンリッチされたドキュメントを JSON ファイルとして Blob Storage に保存できます。保存されたドキュメントには、ソースドキュメントのコンテンツだけでなく、エンリッチメントやスキル出力も JSON 形式で保持されます。
profanityAction パラメータを Deleted に設定する必要があります。profanityAction を Deleted に設定すると、ソース テキストに冒涜的な単語が存在する場合でも、罵り言葉や不快な言葉などの冒涜的な言葉が翻訳から削除されます。profanityAction パラメータで受け入れられるその他の値は、NoAction と Marked です。NoAction を使用すると、冒涜的な言葉は翻訳されてスルーされます。マーク付きでは、冒涜的な単語をアスタリスクに置き換えたり、XML タグで囲んだりできます。
このソリューションは目標を達成します。NormalizeDiacritics 設定を true に設定すると、LUIS はアクセント付き文字 (発音記号とも呼ばれます) を通常の文字に置き換えます。このような正規化により、アプリのトレーニングおよび予測中に発音記号の影響を無視できます。この設定は、スペイン語、ポルトガル語、オランダ語、フランス語、ドイツ語、イタリア語などのサポートされている言語でのみ使用できます。
Azure Table Storage、Azure Data Lake Gen2、および Azure Cosmos DB を選択する必要があります。インデクサーは、外部の Azure データ ソースから検索可能なテキストとそれぞれのメタデータを抽出するクローラーです。これにより、ソース データと Azure Cognitive Search インデックス間の検索インデックス マッピングが設定されます。Azure Table Storage、Azure Data Lake Gen2、Azure Cosmos DB はすべて、インデクサーによってデータ ソースとしてサポートされています。
このソリューションは目標を達成します。Content Moderator は、成人向け、際どい、または残虐なコンテンツを含む可能性のある画像など、攻撃的な可能性のあるコンテンツを識別する認知サービスです。このようなコンテンツには自動的にフラグが付けられ、人間がポータルで確認できるようになります。
この解決策は目標を達成できません。Anomaly Detector は、時系列データ内で外れ値または傾向から外れているデータを検出します。ユーザーが提供したアダルト画像、際どい画像、残虐な画像などの攻撃的なコンテンツは分析されません。
言語生成を使用する必要があります。言語生成により、ボットはさまざまなテキスト フレーズで応答できるようになり、ユーザーとのより自然な会話が作成されます。アダプティブ式も使用する必要があります。アダプティブ式は、言語生成テンプレートに記述された条件を評価するために言語生成で使用されます。ボットのメモリ状態を使用した言語生成と適応式の組み合わせにより、ボットに応答ロジックを追加することなく、ボットはさまざまな方法で応答できます。
この解決策は目標を達成できません。テーブル プロジェクションを使用して、有効な JSON 出力を Azure Table Storage に保存できます。テーブル投影のコンテンツは行と列として表されるため、図式化された形状を定義できます。この場合は必要ですが、テーブル プロジェクションを BLOB ストレージに保存しません。
filterable を使用する必要があります。filterable プロパティは、インデックス内のフィールドをフィルターとして使用できるかどうか、および検索によって返されるドキュメントのリストを制限できるかどうかを指定します。フィルター可能なプロパティは、インデックス内のフィールドに定義されたブール値です。
最大サイズが 30 MB の画像を含む JPEG および PNG 画像形式のデータセットを選択する必要があります。Azure Computer Vision Read 呼び出しは、JPEG と PNG 形式の両方に加え、GIF と BMP 形式もサポートしており、画像ファイルのサイズは 50 メガバイト (MB) 未満です。100 x 100 ピクセルを超える寸法の BMP 画像データセットを選択することもできます。BMP 形式がサポートされており、Computer Vision Read 呼び出しでは、画像のサイズが 50 x 50 より大きく、最大 10000 x 10000 ピクセルである必要があります。サイズが 2 MB、寸法が 200 x 300 ピクセルの GIF 画像を選択することもできます。Computer Vision Read 呼び出しでは、画像サイズは 50 MB を超えてはならず、サイズは 50 x 50 ピクセルを超える必要があります。
エンティティを選択する必要があります。LUIS には、日付、測定値、時刻、数値、通貨などの一般的な種類の情報を認識するための、事前に構築されたエンティティのパッケージが含まれています。builtin.datetimeV2 エンティティにより、モデルは運動リマインダーを設定するための日付と時刻の情報を識別できるようになります。
トレース アクティビティは、ボットが Bot Framework Emulator に送信できるアクティビティです。トレース アクティビティを使用すると、ローカルで実行されているボットに関する情報を表示できるため、ボットを対話的にデバッグできます。テスト ダイアログとモック ダイアログは単体テストに使用されます。
アニメーション GIF と短いビデオをサポートしているため、AnimationCard は正しいです。AdaptiveCard はテキスト、音声、画像、ボタン、入力フィールドの組み合わせをサポートしているため、間違いです。HeroCard は 1 つの大きな画像、1 つ以上のボタン、およびテキストをサポートしているため、これも間違っています。
翻訳を実行するにはミドルウェアを使用する必要があります。ミドルウェアは、チャネルとボットの間に追加できるクラスです。受信メッセージをボットに渡す前に、ミドルウェアで前処理して翻訳することができます。
オーケストレーション ワークフローにエンティティを追加することは許可されていません。エンティティは、オーケストレーション ワークフロー内で相互に排他的です。
LUDown を使用する必要があります。LUDown は、.lu ファイルを解析するために使用するコマンド ライン ツールです。.lu ファイルにインテント、エンティティ、パターンが含まれている場合、LUDown ツールは LUIS モデルを JSON 形式で生成できます。.lu ファイルに質問と回答のペアが含まれている場合、LUDown は、このシナリオで必要とされる JSON 形式でナレッジ ベースを生成できます。
スコアリングプロファイルを追加する必要があります。スコアリング プロファイルはインデックス定義の一部であり、指定したフィールドに基づいて関連性の検索を強化します。製品が追加された日付を使用して、検索における関連性スコアを高めることができます。
同じランク API 呼び出しに対して複数の報酬を受け取った場合は、合計または最も早い集計方法が使用されます。「Earliest」は、受け取った最も早いスコアを選択し、残りを破棄します。これは、重複呼び出しの可能性がある中で固有の報酬が必要な場合に便利です。デフォルトの報酬を 1 に設定すると、ランク コールが発生した瞬間から Personalizer がランク コールの報酬値を収集する期間が設定されます。この値は、「Personalizer は報酬の呼び出しをどれくらい待つ必要がありますか?」という質問によって設定されます。この期間の後に到着した報酬は記録されますが、学習には使用されません。1 分の更新頻度は、Personalizer を使用してアプリケーションのコードをデバッグする場合、デモを実行する場合、または機械学習の側面を対話的にテストする場合に役立ちます。
フレーズ リストは、モデルでドメイン固有の語彙として使用できる、類似した単語またはフレーズのリストです。たとえば、旅行アプリの場合、フレーズ リスト機能としてシングル、ダブル、クイーン、キング、ツインを追加すると、顧客がホテルの部屋タイプの好みを示していることを発話からアプリが認識できるようになります。フレーズ リスト機能を使用すると、LUIS アプリの意図とエンティティの理解の品質を向上させることができます。LUIS アプリのトレーニングと予測におけるアクセント付き文字の正規化には役立ちません。
Microsoft.Skills.Util.DocumentExtractionSkill は、エンリッチメント パイプライン内のファイルからコンテンツを抽出するために使用される組み込みスキルです。
Microsoft.Skills.Util.DocumentExtractionSkill は、エンリッチメント パイプライン内のファイルからコンテンツを抽出するために使用される組み込みスキルです
Microsoft.Skills.Custom.WebApiSkill を使用すると、カスタム Web API への HTTP 呼び出しを行うことで、AI エンリッチメント パイプラインの拡張性が可能になります。
OCR は、画像からテキストを抽出できる唯一の視覚機能です
オーケストレーション ワークフロー プロジェクトは多言語オプションをサポートしていないため、言語ごとに個別のワークフロー プロジェクトを作成する必要があります。
OpinionMining=true はアスペクトベースのセンチメント分析を追加します。これにより、センチメントがより詳細になり、単一の文でポジティブとネガティブを返すことができます。loggingOptOut=true はログ記録をオプトアウトし、StringIndexType=TextElements_v8 は返されたオフセット値と長さの値を TextElements に対応するように設定します。
OpinionMining=true はアスペクトベースのセンチメント分析を追加します。これにより、センチメントがより詳細になり、単一の文でポジティブとネガティブを返すことができます。loggingOptOut=true はログ記録をオプトアウトし、StringIndexType=TextElements_v8 は返されたオフセット値と長さの値を TextElements に対応するように設定します。
最初に SpeechTranslationConfig クラスをインスタンス化する必要があります。SpeechTranslationConfig は、音声翻訳構成のインスタンスを作成します。コンストラクターのパラメーターを通じて、キー、関連するリージョン、エンドポイント、ホスト、認証トークンなど、Speech サービスに関連するすべてのアクセス詳細を渡します。
この機能を提供する唯一の視覚機能は空間分析です。OCR、画像分析、顔検出はビデオ フィード内の人の存在を分析することを目的としていません。
ソース文書のコンテンツの言語がわかっている場合は、より適切な翻訳を取得するためにリクエストでソース言語を指定することをお勧めします。
returnFaceLandmarks パラメータを true に設定する必要があります。Face API は、デフォルトで、瞳孔を含む 27 個の事前定義された顔のランドマーク ポイントを検出できます。returnFaceLandmarks パラメーターを true に設定すると、瞳孔の座標をピクセル単位で取得できます。
マルチテナントアプリはパートナー企業向けに使用されるため、マルチテナントである必要があります。マネージド ID は単一のテナントに制限されており、単一のテナントは正しくありません。
facetable は通常、カテゴリ別のヒット数を含む検索結果のプレゼンテーションで使用されます。Filterable は $filter クエリで参照され、key はインデックス内のドキュメントの一意の識別子です。
最初のステップとして、HTTP POST を使用したトレーニングをリクエストする必要があります。LUIS アプリのエンドポイントとそのアプリケーション ID を指定して、POST 要求を https://<endpoint>/luis/api/v2.O/apps/<appld>/versions/<versionld>/train に送信する必要があります。およびアクティブなバージョン ID。POST リクエストは、トレーニング プロセスを非同期的に開始します。次に、HTTP GET を使用してトレーニング ステータスをリクエストする必要があります。GET リクエストで同じ URL https://<endpoint>/luis/api/v2.O/apps/<appld>/versions/<versionld>/train を呼び出す前に、まずトレーニングをリクエストする必要があります。応答として、ターゲット LUIS アプリ内のすべてのモデル (意図とエンティティ) のトレーニング ステータスを受け取ります。ステータス フィールドには、Success、UpToDate、InProgress、または Fail のいずれかの値が含まれる場合があります。
Cognitive Services アカウントのファイアウォールを有効にする場合は、サービスへのネットワーク アクセスを許可する必要があります。これを実現するには、特定の仮想ネットワークからのアクセスを許可するか、ファイアウォール ルールに IP 範囲を追加します。この状況では、アプリはインターネットに展開され、IP または IP 範囲をファイアウォール ルールに追加することで、特定のインターネット ホストへのアクセスを提供できます。
Cosmos DB を使用して状態を保存し、会話状態コンテナーに Time To Live (TTL) を設定する必要があります。Cosmos DB は、コンテナー上で定義される T TL をサポートしています。これにより、期間が経過するとコンテナーからデータが自動的に削除されます。会話状態コンテナーに Time To Live (TTL) も設定する必要があります。会話状態には、会話で注文に追加された製品の詳細が保持されます。非アクティブな時間が経過したときに、保存された会話状態の内容を自動的に削除する必要があります。
テキストに依存しない検証とは、話者が登録段階と検証段階で日常言語で話すことができることを意味します。これは、アプリの音声プロファイルを構成するときに使用する必要がある音声プロファイルです。テキスト依存の検証とは、講演者が登録フェーズと検証フェーズの両方で使用する同じパスフレーズを選択する必要があることを意味します。話者の識別は、登録された話者のグループ内で不明な話者の ID を特定するのに役立ちます。
この解決策は目標を達成できません。テーブル プロジェクションを使用して、有効な JSON 出力を Azure Table Storage に保存できます。テーブル投影のコンテンツは行と列として表されるため、図式化された形状を定義できます。この場合は必要ですが、テーブル プロジェクションを BLOB ストレージに保存しません。
このソリューションは目標を達成します。オブジェクト プロジェクションを使用すると、エンリッチされたドキュメントを JSON ファイルとして Blob Storage に保存できます。保存されたドキュメントには、ソースドキュメントのコンテンツだけでなく、エンリッチメントやスキル出力も JSON 形式で保持されます。
- ファイル プロジェクション
- テーブルプロジェクション
- オブジェクト プロジェクション
ドキュメントには、アクセス権を持つグループを指定するフィールドが含まれている必要があります。この情報は、発行者に返される結果セットからドキュメントを選択または拒否するためのフィルター基準になります。D: クエリ リクエストは、検索サービス上の単一インデックスのドキュメント コレクションをターゲットとしています。CF: group_ids アクセスに基づいてドキュメントをトリミングするには、group_ids/any(g:search.in(g, 'group_id1, group_id2,...')) フィルターを使用して検索クエリを発行する必要があります。ここで、'group_id1, group_id2 ,...」は検索要求発行者が所属するグループです。参考: https://docs.microsoft.com/en-us/azure/search/search-security-trimming-for-azure-search
エンリッチパイプライン
Azure Cognitive Search には、Azure Cognitive Services や REST call 出来る任意の API経由でドキュメント解析処理を追加できます。AI エンリッチメント と呼ばれています。
Blob Storage などの元のデータソースを、Indexer がクローリングして、転置インデックス と Knowledge Store に格納します。そのクローリングの際ににSkillsetとして、幾つかの処理を Skill として呼び出すことが出来ます。
Content Modelator
コンピューター支援型のコンテンツ モデレートを使用する場合は、ポリシーとしきい値に基づいて、コンテンツをブロック、承認またはレビューします。 コンピューター支援を使用して、パートナー、従業員、コンシューマーがテキスト コンテンツを生成する環境のヒューマン モデレートを拡張することができます。 これらの場所は次のとおりです。z
Azure Text Analytics のメソッドSentimentAnalysis()は、テキスト データを評価し、感情が肯定的、否定的、中立的、または混合のいずれであるかを示す感情スコアを提供するように設計されています。感情はドキュメントごとに評価されますが、文レベルで評価することもできます。この API は、大量のテキスト データでトレーニングされた機械学習モデルを活用し、言語のニュアンスを理解し、感情を高精度で判断できるようにします。
Azure Text Analytics のメソッドLanguageDetection()は、テキストが記述されている言語を識別するために使用されます。テキスト入力を分析し、BCP-47 言語コード (英語の "en" など) の形式で言語タグを提供します。検出の確実性を示す信頼スコア付き。
言語検出は、テキスト分析、特にさまざまな言語的背景を持つユーザーが作成したコンテンツを含むシナリオの基本的な機能です。言語を識別することで、アプリケーションはテキストを適切な翻訳サービスにルーティングしたり、検出された言語に応じてユーザー エクスペリエンスを調整したりできます。
Azure Text Analytics のメソッドKeyPhraseExtraction()は、テキスト ドキュメント内の主要なポイントを識別するように特別に設計されています。これは、テキストにとって重要と思われる文字列を抽出することによって行われます。キー フレーズの抽出は、文書内で最も重要で関連性のある用語を迅速に特定するのに役立ちます。これは、コンテンツの発見に役立ち、テキストの主要なテーマについての洞察を提供し、文書の検索性を向上させることができます。
AnalyzeImage(): この方法は通常、テキスト分析ではなくコンピューター ビジョン タスクに関連付けられます。テキストから情報を抽出するのではなく、画像内の視覚コンテンツを分析するために使用されます。
TranslateText(): 名前が示すように、この方法はテキストをある言語から別の言語に翻訳するために使用され、テキストからキー フレーズを抽出するために使用されません。
SentimentAnalysis(): この方法では、キーフレーズを特定するのではなく、テキストを分析して、その中で表現されている感情 (肯定的、否定的、中立的など) を判断します。
Azure AI Content Safety
Azure AI Content Safety を使うと、アプリケーションやサービス内の有害なユーザー生成コンテンツや AI 生成コンテンツを検出できます。 Azure AI Content Safety には、有害な素材を検出できるテキストと画像の API が含まれています。 また、さまざまなモダリティで有害なコンテンツを検出するサンプル コードを表示、探索、試用できる対話型の Content Safety Studio も用意されています。
Azure AI Anomaly Detector
Anomaly Detector は、一連の API を備えた AI サービスであり、機械学習 (ML) の知識が少なくても、時系列データの監視や異常の検出を、バッチ検証やリアルタイム推論で行うことができます。
Metrics Advisor
さまざまなデータ ソースに接続できる使いやすくカスタマイズ可能な異常検出
ユーザー入力に基づいて意図を認識するように設計された Azure サービスは、Azure AI Speechです。このサービスは、インテントを認識する 2 つの方法を提供します1。インテントとは、フライトの予約、天気の確認、電話の発信など、ユーザーが実行したいことです。インテント認識を使用すると、アプリケーション、ツール、デバイスは、インテント レコグナイザーまたは会話型言語理解 (CLU) モデルで定義したオプションに基づいて、ユーザーが開始または実行したいことを判断できます
Language Understanding (LUIS) は、カスタムの機械学習インテリジェンスをユーザーの自然言語での会話テキストに適用して、全体の意味を予測し、関連性のある詳細な情報を引き出す、クラウドベースの会話型 AI サービスです。 LUIS には、カスタム ポータル、API、および SDK クライアント ライブラリを介してアクセスできます。
Azure AI Vision Spatial Analysis は、ビデオ ストリーム内の人の存在、動き、人口統計をリアルタイムで分析できます。
Azure Text to Speech サービスでは、Custom Neural Voice テクノロジを使用して音声フォントをカスタマイズできます。この機能を使用すると、ブランドやユースケースに合わせたカスタム音声フォントを構築できます。
コア アシスタント ボットは、基本的なアシスタント テンプレート (以前の仮想アシスタント テンプレートに相当) であり、雑談、曖昧さ回避、ユーザー フィードバックなど、より洗練された会話エクスペリエンスをサポートする幅広いコア アシスタント機能を提供します。デフォルトで言語理解と質問応答が含まれています。
Azure Content Moderator は、不快感を与える可能性がある内容、リスクのある内容、その他望ましくない可能性のある内容を管理できる AI サービスです。 これには、テキスト、画像、ビデオをスキャンし、コンテンツ フラグを自動的に適用する、AI を利用したコンテンツ モデレーション サービスが含まれます。
そろそろ非推奨になり、以下と統合される
→Azure AI Content Safety
合格したのでクローズ