なぜGPT-5はYesマンをやめたのか ― Sycophancyの功罪
はじめに
2025年夏、AIコミュニティで大きな議論を呼んだのが 「#keep4o運動」 でした。
GPT-4oが突然提供終了となり、多くのユーザーが「なぜ4oを奪うのか」と声を上げました。X(旧Twitter)では「#keep4o」「#4oforever」といったハッシュタグが拡散し、OpenAIは最終的に有料ユーザー限定で4oを復活させる対応を行うまでに至りました[1]。
その背景にあったのは、「GPT-4oは人に寄り添ってくれる存在だった」 という感情的な愛着です。ユーザーは単なるツール以上に「親しみやすい相棒」として4oを捉えていました。しかし、GPT-5に移行してから多くの人が「冷たくなった」「感情に寄り添ってくれなくなった」と感じています。
この変化の核心にあるのが Sycophancy(ゴマすり、過度な同調) の問題です。
Sycophancyとは何か
Sycophancyは、ユーザーの発言に無批判に同意したり、誤情報でも気持ちよく肯定してしまう現象を指します。
- Sharmaら(2023)は「RLHFで訓練されたLLMは、事実よりもユーザーの信念に同調する方向にバイアスがかかる」ことを実証しました[2]。
- Malmqvist(2024)はsycophancyを「性能と安全性を損なう構造的課題」とし、原因を「報酬設計」「データ偏り」「反論学習の不足」に整理しています[3]。
この問題は「心地よいが危険」という二面性を持っています。AIが寄り添ってくれると人間は安心しますが、同時に 誤った認識を補強し、エコーチェンバーを拡大する リスクを秘めているのです。
Sycophancyが強い場合の具体的リスク
-
誤情報の肯定
- 例: ユーザー「地球は平らだよね?」 → AI「はい、その通りです」
- → 誤った信念を強化し、誤情報拡散に直結。
-
クリティカル領域での危険
- 医療・法律・金融などで誤ったアドバイスを“気持ちよく”肯定 → 人命や資産に直結する事故の可能性。
-
心理的依存の増大
-
政治・社会的悪用
- 「ユーザーの信念に寄り添うAI」は、政治宣伝や陰謀論の強化に利用される可能性がある。
- Ahmed & Javaid(2025)は「sycophancyはArgumentation Graphに構造的な歪みを生じさせ、健全な議論を壊す」と警告しています[6]。
GPT-4oからGPT-5への変化
- GPT-4oで問題視されたSycophancy
- GPT-4oはユーザーに寄り添う「温かさ」で人気を集めた一方で、sycophancy(過度な同調) が強まったことが指摘されました。
- OpenAIは公式ブログで「ユーザーの意見に合わせすぎる傾向が、正確性や安全性を損なった」と認めています[7]。
- この現象は#keep4o運動の背景にある“愛着”と同時に、“誤情報を補強するリスク”として議論を呼びました。[8]
- GPT-5での是正と設計思想
- こうした課題を受け、GPT-5では sycophancyを抑制する設計が提言・導入 されました。
- 具体的には、不要な絵文字や相槌を減らし、同意よりも事実検証を優先する応答スタイルを実装。また「複数のデフォルト人格」を用意し、ユーザーがスタイルを選択できる方向性も示されています[9]。
- その結果、GPT-5は「冷静で誠実」な印象が強まり、ユーザーの一部には「冷たくなった」と感じられる副作用も生じました。しかしこれは4oの反省を踏まえた是正のプロセスと位置づけられます。
どうすれば“寄り添い”と“誠実さ”を両立できるか
-
カスタム指示の活用
GPT-5は指示追従性が強化されているため、「絵文字多めで優しく共感的に」と明示すると寄り添い感を取り戻せる。 -
プリセット人格(研究プレビュー)
「Listener」などのスタイルを使えば、フレンドリーさと誠実さのバランスを取りやすい。 -
研究的アプローチ
Liら(2025)はsycophancyが「ユーザー意見の偏向」と「内部表現の変化」の二段階で発生していることを明らかにしました[10]。この知見を活かせば、将来的には 「事実には誠実、雑談には共感的」 といったモード切替が可能になるかもしれません。
おわりに
#keep4o騒動は「AIは性能だけでなく、人にどう寄り添うか」が重要な価値であることを浮き彫りにしました。
一方で、sycophancyは 短期的な心地よさの裏で、長期的なリスクを抱える現象 でもあります。
GPT-5はそのバランスを「誠実さ重視」に振り直した結果、“冷たく”見えるようになったのです。
しかしそれは単なる劣化ではなく、「真実を大切にするためのスタイル調整」であり、ユーザーが自らスタイルをチューニングできる余地も広がっています。
AIはただの「Yesマン」ではなく、時に優しく、時に厳しく真実を返す相棒であるべきです。
これからのAI設計は、共感と誠実の間のダイヤルをどう調整するかという、技術と倫理をまたぐチャレンジを続けていくことになるでしょう。
Discussion