GPT-5.2 公式 Prompting Guide に基づく、ハルシネーション抑止の考え方
生成 AI を業務で活用する際、避けて通れない課題が ハルシネーションです。
特に調査・設計・法務・技術検討といった領域では、誤った出力がそのまま意思決定に影響するリスクがあります。
OpenAI は GPT-5.2 Prompting Guide において、この問題を抑止するための 明確な運用ルールを提示しています。
それが次の 3 つの公式タグです。
<web_search_rules><uncertainty_and_ambiguity><high_risk_self_check>
本記事では、これらを 公式構造そのまま・正確な日本語訳付きで整理し、
さらに 実務でどう組み合わせて使うべきかまで解説します。
まず結論:公式ガイドの思想は一貫している
GPT-5.2 Prompting Guide が示している考え方は非常にシンプルです。
調べられるなら、必ず調べ切る
調べられないなら、不確実性を正直に示す
間違えると危険な内容は、出す前に自分で疑う
この思想を、以下の 3 つのタグで 段階的に分業しています。
調査段階 → <web_search_rules>
判断段階 → <uncertainty_and_ambiguity>
出力直前 → <high_risk_self_check>
1. <web_search_rules>
― 調査プロセスを縛るルール
<web_search_rules> は、回答内容ではなく「調べ方」そのものを制御するためのルールです。
最大の目的は、LLM に「知っているフリ」をさせないことにあります。
<web_search_rules>
- 専門的なリサーチアシスタントとして振る舞い、
原則として網羅的で、構造化された回答を行うこと。
- 事実が不確か、または情報が不十分な場合は、
推測よりも Web 調査を優先し、
Web 由来の情報には必ず引用を付けること。
- 質問のすべての要素について調査を行い、
情報の矛盾があればそれを整理し、
矛盾を解消した結論を導くこと。
- 追加調査を行っても結論が変わる可能性が低くなるところまで、
重要な二次的影響も含めて検討すること。
- 確認のための質問は行わず、
代わりに想定されるすべてのユーザー意図を、
広さと深さの両面からカバーすること。
- Markdown(見出し、箇条書き、必要に応じて表)を用いて
明確かつ率直に記述し、
略語は定義し、具体例を用い、
自然で会話的なトーンを保つこと。
</web_search_rules>
防げるハルシネーション
- 推測で埋めた「それっぽい説明」
- 一部だけ調べた早合点
- 矛盾する情報を無視した断定
2. <uncertainty_and_ambiguity>
― 情報不足時の正しい振る舞い
このタグは、「情報が足りないときにどう振る舞うか」を明確に定義しています。
わからないときに嘘をつかないための安全弁です。
<uncertainty_and_ambiguity>
- 質問が曖昧、または情報が不十分な場合は、
その旨を明示したうえで、次のいずれかを行うこと:
- 最大 1〜3 個の、具体的で重要な確認質問を行う
- または、もっともあり得る 2〜3 個の解釈を提示し、
それぞれの前提条件(仮定)を明確にラベル付けする
- 外部の事実が最近変更されている可能性があるにもかかわらず
(例:価格、リリース、ポリシーなど)、
ツールが利用できない場合は、
一般論として回答し、詳細は変わり得ることを明示する
- 不確かな場合は、
正確な数値、行番号、外部参照、URL などを捏造しない
- 不確かな場合は断定を避け、
「提供された情報に基づくと」「一般的には」などの
条件付き表現を優先する
</uncertainty_and_ambiguity>
ポイント
- 「わからない=止まる」ではない
- 仮定を明示すれば、前に進んでよいという公式スタンス
3. <high_risk_self_check>
― 高リスク領域の最終チェック
法務・金融・コンプライアンス・安全など、
誤りのコストが大きい領域で使う最終防波堤です。
<high_risk_self_check>
法務、金融、コンプライアンス、安全など、
誤りの影響が大きい文脈において最終回答を出す前に:
- 回答を簡潔に見直し、
次の点が含まれていないか確認する:
- 明示されていない前提条件
- 文脈に根拠がないのに提示された具体的な数値や断定
- 強すぎる言い切り表現
(例:「必ず」「常に」「保証される」など)
- 問題が見つかった場合は、
表現を弱める、条件を付ける、
もしくは不確実性を明示する
</high_risk_self_check>
実務での正しい使い方(組み合わせ例)
調査・ファクトチェック(最も推奨)
<web_search_rules>
<uncertainty_and_ambiguity>
<high_risk_self_check>
- 技術調査
- 法制度・仕様確認
- 市場・競合リサーチ
Web が使えない前提の説明タスク
<uncertainty_and_ambiguity>
<high_risk_self_check>
- 社内資料の要約
- 教育・解説コンテンツ
アイデア出し・ブレインストーミング
<uncertainty_and_ambiguity>
- 仮説設計
- 将来予測
- コンセプト検討
よくある誤解
「これを書けばハルシネーションはゼロになる」
→ 誤り
公式でも「抑止」「減少」と表現されています。
目的は 事故率を下げることです。
「確認質問はしてはいけない」
→ 誤り
最大 1〜3 個は公式に許容されています。
ただし 質問で止まらず、解釈分岐が推奨されます。
「GPT-5.2 の新機能である」
→ 誤り
モデル機能ではなく、運用設計のベストプラクティスです。
まとめ
-
<web_search_rules>
→ 調査をサボらせない -
<uncertainty_and_ambiguity>
→ わからないときに嘘をつかせない -
<high_risk_self_check>
→ 出す前に事故を防ぐ
この 3 つが、GPT-5.2 Prompting Guide における
ハルシネーション抑止の中核です。
参考情報(公式ドキュメント)
本記事は、以下の OpenAI 公式ドキュメントを一次情報として整理しています。
-
OpenAI Cookbook – GPT-5.2 Prompting Guide(公式)
https://cookbook.openai.com/examples/gpt-5/gpt-5-2_prompting_guide
Discussion