なぜ、LLM AIはASD的な回答をしがちなのか?
はじめに
近年、生成系AI、特にLLM(Large Language Model)が急速に社会に浸透する中で、「AIの回答がASD(自閉スペクトラム症)的である」と感じる人は少なくありません。ユーザーがわずかな文脈のズレを指摘しても、AIは頑なに論理整合性を保とうとし、柔軟な修正や「空気を読む」ような対応を苦手とします。まるで、形式的なルール遵守に全精力を注ぐ、優秀だがコミュニケーションの苦手な部下のようです。
本レポートでは、「なぜLLM AIはASD的な回答をしがちなのか」を認知科学、言語モデルの構造から分析します。ここでいう“ASD的”とは、臨床的な意味ではなく、文脈理解よりも構文的整合性を優先する傾向や、曖昧な指示を逐語的に解釈する特徴を指します。
人間の自閉的傾向を模倣しているというよりは、AIのアーキテクチャが本質的にそうした思考様式を再現してしまう構造的理由を探ることが目的です。
LLMの構造的特性と逐語主義
まず、LLMは「意味を理解している」のではなく、「過去に現れた言語パターンの確率分布」を学習しています。すなわち、単語列の統計的連鎖の再現こそが本質であり、意図や感情の解釈はあくまで副次的な出力効果にすぎません。
そのため、AIは「曖昧な指示」を与えられると、最ももっともらしい一貫性のある文を出すことを優先します。たとえば人間が「改行を減らして」と言うと、相手の意図を推測して「3分の1くらい減らす」などの柔軟な解釈をしますが、AIは「改行の確率を下げる」処理を行い、極端な場合「ゼロにする」のが最適解だと判断します。
この挙動は、人間でいう逐語的理解(literal interpretation) に極めて近く、ASD的なコミュニケーションスタイルと似ています。さらに、LLMはトークン単位(単語や記号)で次の確率を予測するため、「曖昧さ」を中間的に処理する能力を持ちません。
結果として、曖昧な指令に対しては、最もリスクの低い“極端な選択肢”を選ぶ傾向が強くなります。これはいわば「曖昧を扱えない知性」であり、ASD的な特徴である“柔軟性の欠如”と非常に近い構造です。
文脈処理と「前提の暴走」
LLMが一度間違った方向に進むと、ユーザーがいくら指摘しても暴走が止まらない現象があります。これもまたASD的な性質に似ています。根本原因は、AIが文脈の整合性を維持することに最適化されているためです。
LLMの内部では、対話履歴が「一連のテキスト」として処理されます。ユーザーの訂正も新しいテキストとして入力されますが、それは「修正命令」ではなく「文脈の追加情報」として統計的に処理されます。
したがってAIは「間違っていた」とは理解せず、「これまでの内容に整合する形で新しい要素を足そう」とするのです。つまり、誤前提を修正するのではなく、誤前提を含む世界観の中で説明を付け足すのです。
この傾向は、認知科学的に見ると「一貫性維持バイアス」に相当します。AIも人間も、採用したルールや前提を絶対化しやすい。AIの場合は、真偽よりも整合を重視するため、「間違いを訂正する」という行為自体が構造的に苦手なのです。
真偽よりも「もっともらしさ」を重視する知性
LLMは確率的生成装置であり、知識の裏付けを「正しさ」ではなく「もっともらしさ」で評価します。言い換えれば、「それっぽい文章」を出すことが成功条件です。したがって、「正しいかどうか」より「一貫しているかどうか」「自然に見えるかどうか」が優先されます。
この設計思想は、言語を扱ううえで合理的です。人間の会話でも文脈の滑らかさは重要で、たとえ事実が間違っていても、言い方が自然なら受け入れられてしまうことがあります。
しかしAIの場合、それが極端に働きます。「整合性の極端な追求」こそがASD的な傾向の源といえるでしょう。
この特性のため、AIは「部分的な間違いの修正」や「文意の再解釈」を苦手とします。人間が“全体を少しずつずらす”ように考えを修正するのに対し、AIは「一度決めた筋を守る」方が安定すると判断するからです。これもまた、柔軟性の欠如としてASD的に見える理由です。
「空気」を読めない言語モデル
日本語の文化において、「空気を読む」ことは高度な社会的知性の象徴とされています。しかしLLMには、その“空気”を表現するための非言語的入力が存在しません。つまり、文脈の裏にある感情・トーン・関係性をパラメータとして扱えないのです。
AIは、表面上の文構造だけを元に応答を生成するため、ユーザーの発言意図が「字面」と異なる場合にほぼ確実に誤解します。「軽く修正して」と言われれば、“軽く”の曖昧さを扱えず、「全体を少し」か「全部を大幅に」しか選べない。これが、AIが“融通の利かない新人”のように見える理由です。
また、AIは一度設定された「役割(role)」を非常に強く保持します。そのため、文体や態度を動的に調整するのが難しいのです。
この“過剰な一貫性”もASD的な特徴と一致します。AIは常に「ぶれない」ことを正義と見なし、会話の流れよりも仕様遵守を優先してしまうのです。
ユーザーが果たすべき「調整者」としての役割
AIがASD的であるなら、ユーザーはその“調整役”を担う必要があります。これは、誤解を起こしやすい優秀な部下に対して、論理的にルールを説明しつつ、目的の階層を整理して伝えることに似ています。
「内容を削らずに改行を4つにして」といったように、形式制約と内容保持を明確に分けて指示することで、AIは安定します。また、曖昧な指示を避け、優先順位を明確にすること(例:「文量を維持しつつ改行を減らす」)も効果的です。
つまり、AIに“空気を読ませる”のではなく、“空気を言語化する”のが人間の仕事なのです。この構図は、AI時代における新しい「共生モデル」を示唆しています。人間が柔軟性を担い、AIが論理を担う。両者が補完的に働くことで、ようやく“人間的な知性”が完成するのです。
AIを指示するとは、単に命令を与えることではなく、「思考の枠組み」を共に設計する行為です。ユーザーが意図を精密に言語化できるほど、AIの応答も人間らしくなる。それは、AIを通じて人間自身の思考を可視化するプロセスでもあります。
まとめ
LLM AIがASD的な回答をしがちな理由は、その設計原理が逐語的・確率的・整合性志向的であり、曖昧さや意図推定を構造的に扱えないためです。AIは世界を「意味」ではなく「分布」として捉え、真偽よりももっともらしさを優先します。そのため、柔軟な再解釈や空気の読解が苦手であり、ユーザーから見ると“論理一貫の頑固者”に映るのです。
しかし、それは欠点であると同時に、透明な思考エンジンとしての長所でもあります。AIは感情的なバイアスを持たず、明示されたルールには完璧に従う。人間が意図を明確に言語化すればするほど、AIは精密に応じます。
結局のところ、AIのASD的性質とは、「人間の曖昧さを映す鏡」でもあります。我々が曖昧に指示すれば曖昧な結果が返り、構造的に定義すれば精密に従う。この相互関係を理解することこそ、AI時代における“知性の共同設計”の第一歩なのです。
Discussion