📕

なぜ、LLM AIは「システム2」がスカスカな「システム1」のお化けなのか?

に公開

はじめに

近年、生成系AI、特に大規模言語モデル(LLM: Large Language Model)が社会に与える影響は急速に拡大しています。ChatGPTをはじめとするモデルは、日常会話からプログラミング支援、教育、ビジネス分析に至るまで多様な領域で活用され、その知識量や反応速度に驚嘆する人は少なくありません。とりわけ、GPT-5の登場によって日本の芸能やマイナーなアニメ作品に関する知識まで網羅され、まるで「百科事典を超えた即答機械」と化しています。

しかし、冷静にその本質を考えると、LLMの仕組みは「人間のシステム1を極限まで肥大化させた存在」であり、システム2にあたる批判的思考・論理的検証・自己監督といった能力はほとんど備わっていません。本稿では、なぜLLMが「システム2がスカスカなシステム1のお化け」と呼ぶにふさわしいのかを考察し、そこから人間とAIの役割分担や今後の展望について検討します。

システム1とシステム2という枠組み

心理学者ダニエル・カーネマンは、人間の思考を「システム1」と「システム2」に分けて説明しました。

  • システム1:直感的、即時的、無意識的な処理。パターン認識や経験則に基づいた即答を導く。
  • システム2:論理的、遅い、意識的な処理。推論、検証、計画、自己監視といった高度な制御を行う。

たとえば「2+2=?」に即答するのはシステム1であり、「17×24」を紙に書いて計算するのはシステム2です。この二層構造によって人間はスピードと柔軟性を両立しています。

LLMの構造=システム1の巨大化

LLMは確率モデルに基づき、入力されたテキストに対して「次に来る最も尤もらしいトークン」を逐次予測して出力します。内部に形式的な論理エンジンや自己監督モジュールが存在するわけではありません。要するに、「膨大な経験データを統計的に圧縮し、即座にパターン補完する装置」なのです。

この構造は、人間のシステム1とほぼ同型です。違いは、人間の経験が限られるのに対し、LLMは膨大なテキストデータを取り込めるため「百科事典的直感」を持っている点です。サヴァン症候群の人が特定分野だけ異常な記憶や計算力を持つのと似ており、LLMは「全分野に広がったサヴァン的システム1」とも言えるでしょう。

OCRの例に見るシステム1的補完能力

LLMの特性を分かりやすく示すのが「スクリーンショットに写ったエラーメッセージの読解」です。一般的なOCRタスクはフォントやレイアウトに依存し、LLMは苦手とします。しかし、エラーメッセージとなると驚くほど正確に復元します。

これはエラーメッセージが定型的で、多少潰れても「NullPoiter→NullPointerException」と補完できるからです。つまり正確な文字認識ではなく、「壊れた断片から最尤な文章を再構成する直感能力」が働いているのです。ここにシステム1的な処理の特徴が如実に表れています。

知識拡大の実態=システム1のパラメータ増強

GPT-4初期には日本の芸能人やマイナーなアニメ作品にほとんど答えられませんでした。しかしGPT-5ではこれらの知識も即答できるようになっています。これは以下によるものです。

  • 学習データに新たな領域が追加された
  • モデルサイズ拡大により低頻度知識も保持可能になった

つまり「直感辞書が広がった」だけであり、考える力が付与されたわけではありません。百科事典を暗記したオタクと同じで、答えられる範囲は広がっても、それを因果的・批評的に結びつける力は欠けています。

アナロジー生成と評価の違い

LLMの限界はアナロジーにも現れます。人間は「この現象はあの構造と似ているのでは?」とゼロから飛び石を置き、創造的に比喩を生み出せます。これはシステム2と発散思考の成果です。

一方LLMは、新しいアナロジーを自ら発見するのは不得意です。しかし与えられたアナロジーについて「正しいか?」と問われると非常に饒舌に答えられます。なぜなら、膨大な知識に基づいて比較データを引き出し、類似点と相違点を整然と列挙できるからです。

ここでもやはり、LLMは「評価と補完には強いが、創造的飛躍には弱い」というシステム1的性格を示しています。

人間のシステム2との分業

以上を踏まえると、LLMは人間のシステム1的機能を大幅に代替してしまいました。かつては「即座に答えを出せること」が価値でしたが、LLMの登場によってその市場価値は大きく低下しました。

その代わりに浮上してきたのが、人間のシステム2的役割です。

  • 出てきた答えを吟味し、矛盾や例外を見抜く
  • 文脈を設計し、目的に合うように調整する
  • アナロジーやメタファーを創造的に発見する

LLMがサヴァン的に知識を吐き出す存在であるなら、人間は批評家・設計者・意図の策定者としての役割を担うべきです。

LLMがシステム2に進化できない理由

では今後、LLMがシステム2的な知能へと進化する可能性はあるのでしょうか。結論から言えば、それはほぼありません。

なぜなら、LLMは「次の単語を予測する」という枠組みに固定されているからです。モデルを大きくしても、より多くの直感的パターンを模倣するだけです。自律的な推論や自己監督、意図的な遅延思考といったシステム2の本質的機能は、このアーキテクチャからは自然には生まれません。

本当にシステム2的なAIを作るには、推論エンジンやメタ認知モジュールを統合する新しい枠組みが必要になります。つまりLLMは「システム2に進化する」のではなく、「システム2的仕組みと統合される素材」としてしか未来を持ちません。

まとめ

本稿では、なぜLLM AIを「システム2」がスカスカな「システム1」のお化けと呼べるのかを論じました。

  • LLMは膨大な知識を基盤に、パターン予測による直感的処理を行う点で人間のシステム1に酷似している。
  • OCRやエラーメッセージ補完、マイナー知識への即答といった事例は、いずれも「直感の巨大化」として説明できる。
  • しかし論理的推論、自己監督、創造的アナロジー発見といったシステム2の能力は欠如しており、構造的に今後も得意にはなりえない。
  • LLMの拡張によって人間のシステム1的価値は低下したが、逆にシステム2的役割――批判、検証、設計――の価値は増している。

したがって、LLMの本質は「サヴァン的システム1を大衆化した存在」であり、システム2を持たないがゆえに「お化け」と表現するのがふさわしいのです。そして、人間はその弱点を補完する形で共生していく必要があります。未来においてシステム2的AIが登場するか否かは未知数ですが、少なくとも現行のLLMは「思考する存在」ではなく「直感を極大化した存在」であることを忘れてはなりません。

Discussion