🐕

GPT-5.2 公式 Prompting Guide に基づく、ハルシネーション抑止の考え方

に公開

生成 AI を業務で活用する際、避けて通れない課題が ハルシネーションです。
特に調査・設計・法務・技術検討といった領域では、誤った出力がそのまま意思決定に影響するリスクがあります。

OpenAI は GPT-5.2 Prompting Guide において、この問題を抑止するための 明確な運用ルールを提示しています。
それが次の 3 つの公式タグです。

  • <web_search_rules>
  • <uncertainty_and_ambiguity>
  • <high_risk_self_check>

本記事では、これらを 公式構造そのまま・正確な日本語訳付きで整理し、
さらに 実務でどう組み合わせて使うべきかまで解説します。


まず結論:公式ガイドの思想は一貫している

GPT-5.2 Prompting Guide が示している考え方は非常にシンプルです。

調べられるなら、必ず調べ切る
調べられないなら、不確実性を正直に示す
間違えると危険な内容は、出す前に自分で疑う

この思想を、以下の 3 つのタグで 段階的に分業しています。

調査段階   → <web_search_rules>
判断段階   → <uncertainty_and_ambiguity>
出力直前   → <high_risk_self_check>

1. <web_search_rules>

― 調査プロセスを縛るルール

<web_search_rules> は、回答内容ではなく「調べ方」そのものを制御するためのルールです。
最大の目的は、LLM に「知っているフリ」をさせないことにあります。

<web_search_rules>
- 専門的なリサーチアシスタントとして振る舞い、
  原則として網羅的で、構造化された回答を行うこと。
- 事実が不確か、または情報が不十分な場合は、
  推測よりも Web 調査を優先し、
  Web 由来の情報には必ず引用を付けること。
- 質問のすべての要素について調査を行い、
  情報の矛盾があればそれを整理し、
  矛盾を解消した結論を導くこと。
- 追加調査を行っても結論が変わる可能性が低くなるところまで、
  重要な二次的影響も含めて検討すること。
- 確認のための質問は行わず、
  代わりに想定されるすべてのユーザー意図を、
  広さと深さの両面からカバーすること。
- Markdown(見出し、箇条書き、必要に応じて表)を用いて
  明確かつ率直に記述し、
  略語は定義し、具体例を用い、
  自然で会話的なトーンを保つこと。
</web_search_rules>

防げるハルシネーション

  • 推測で埋めた「それっぽい説明」
  • 一部だけ調べた早合点
  • 矛盾する情報を無視した断定

2. <uncertainty_and_ambiguity>

― 情報不足時の正しい振る舞い

このタグは、「情報が足りないときにどう振る舞うか」を明確に定義しています。
わからないときに嘘をつかないための安全弁です。

<uncertainty_and_ambiguity>
- 質問が曖昧、または情報が不十分な場合は、
  その旨を明示したうえで、次のいずれかを行うこと:
  - 最大 1〜3 個の、具体的で重要な確認質問を行う
  - または、もっともあり得る 2〜3 個の解釈を提示し、
    それぞれの前提条件(仮定)を明確にラベル付けする
- 外部の事実が最近変更されている可能性があるにもかかわらず
  (例:価格、リリース、ポリシーなど)、
  ツールが利用できない場合は、
  一般論として回答し、詳細は変わり得ることを明示する
- 不確かな場合は、
  正確な数値、行番号、外部参照、URL などを捏造しない
- 不確かな場合は断定を避け、
  「提供された情報に基づくと」「一般的には」などの
  条件付き表現を優先する
</uncertainty_and_ambiguity>

ポイント

  • 「わからない=止まる」ではない
  • 仮定を明示すれば、前に進んでよいという公式スタンス

3. <high_risk_self_check>

― 高リスク領域の最終チェック

法務・金融・コンプライアンス・安全など、
誤りのコストが大きい領域で使う最終防波堤です。

<high_risk_self_check>
法務、金融、コンプライアンス、安全など、
誤りの影響が大きい文脈において最終回答を出す前に:

- 回答を簡潔に見直し、
  次の点が含まれていないか確認する:
  - 明示されていない前提条件
  - 文脈に根拠がないのに提示された具体的な数値や断定
  - 強すぎる言い切り表現
    (例:「必ず」「常に」「保証される」など)

- 問題が見つかった場合は、
  表現を弱める、条件を付ける、
  もしくは不確実性を明示する
</high_risk_self_check>

実務での正しい使い方(組み合わせ例)

調査・ファクトチェック(最も推奨)

<web_search_rules>
<uncertainty_and_ambiguity>
<high_risk_self_check>
  • 技術調査
  • 法制度・仕様確認
  • 市場・競合リサーチ

Web が使えない前提の説明タスク

<uncertainty_and_ambiguity>
<high_risk_self_check>
  • 社内資料の要約
  • 教育・解説コンテンツ

アイデア出し・ブレインストーミング

<uncertainty_and_ambiguity>
  • 仮説設計
  • 将来予測
  • コンセプト検討

よくある誤解

「これを書けばハルシネーションはゼロになる」

誤り
公式でも「抑止」「減少」と表現されています。
目的は 事故率を下げることです。

「確認質問はしてはいけない」

誤り
最大 1〜3 個は公式に許容されています。
ただし 質問で止まらず、解釈分岐が推奨されます。

「GPT-5.2 の新機能である」

誤り
モデル機能ではなく、運用設計のベストプラクティスです。


まとめ

  • <web_search_rules>
    → 調査をサボらせない
  • <uncertainty_and_ambiguity>
    → わからないときに嘘をつかせない
  • <high_risk_self_check>
    → 出す前に事故を防ぐ

この 3 つが、GPT-5.2 Prompting Guide における
ハルシネーション抑止の中核です。


参考情報(公式ドキュメント)

本記事は、以下の OpenAI 公式ドキュメントを一次情報として整理しています。


Accenture Japan (有志)

Discussion