🔖

AGIは生まれない【論文要約】

に公開

はじめに

こんにちは、AIエンジニアを目指しているmitaです!
今回は「AGI is Impossible」論文(Max M. Schlereth 著)を要約・整理します。

https://philpapers.org/archive/SCHAII-17.pdf

論文要約

  • AGIを「人間のように幅広い状況で柔軟かつ有能に行動できる存在」と定義
  • 複雑性や資源不足ではなく、計算理論上の構造的限界によりAGIの実現が不可能であると論証
  • ゲーデル・チューリング・シャノン・カントらの理論と3つの思想的道筋(計算理論・情報理論・複雑性理論)から導出された「無限選択障壁(Infinite Choice Barrier)」を提示
  • 具体例(社会的判断、パラダイム転換、創造的発見)を通じ、AIでは処理できない決断的状況を示す

論文の基本構成

  1. 3系統による証明の枠組み

    • 計算理論:チューリング、ゲーデル、ライス定理に基づき、解決不可能な問題の存在を指摘
    • 情報理論:シャノンのエントロピー法則の逆転現象を利用
    • 複雑性理論:コルモゴロフやチャイティンの理論から、圧縮不能・未説明の複雑性を議論
  2. 「無限選択障壁」の定式化と証明

    • 不可約に無限(irreducibly infinite)な意思決定空間では、どんな計算可能な方策でも全てに最適解を導けないことを形式的に証明
  3. 3つの不可避な帰結(コロラリー)

    • セマンティック・クローズ:既存のシンボルセットでは新概念を生み出せない
    • フレーム革新の不在:アルゴリズム自身は新たな枠組みを創造できない
    • 統計的破綻:ヘビーテール分布(α ≤ 1)状況では期待値も分散も定義不能 → 経験学習が成立しない
  4. 人間 vs. AI の決定メカニズム比較

    • AI:分析に基づく「結論」を出す
    • 人間:論理・データ不足の中で「決断」し主体的に行動する → これがAIに欠如している

コア概念:無限選択障壁(Infinite Choice Barrier)とは?

「どんなに強力でも、AIは構造上突破できない意思決定上の壁」を意味します。
これは、以下の3条件を同時に満たす空間で起こる非可計算性の本質的限界です:

  • 枠組み外の概念が必要
  • 認識すべき状況の構造そのものが不明
  • 統計学的判断が成立しないほどの不確実性

論文中では3つの例を挙げてこの説明をしています。そのうちの一つである「私って太ったと思う?」という妻の疑問への回答を考える問題を取り上げます。

論文中では解のない問いとして取り上げられており、この問題にAIが直面すると下記のような流れで計算を進めます。

選択肢1:正直に答える(バイオメトリックデータに基づく) → 感情的ダメージの可能性を計算 → 誠実さパラメータを調整 → しかし、過去の関係性は? → 再計算…
選択肢2:巧みにかわす → 1万件の成功事例を分析 → しかし口調が重要 → マイクロ表情も分析する必要あり → タイミングも重要 → 過去の会話履歴も必要 → 再計算…
選択肢3:愛情ある方向に話題をそらす → 最適な感情表現を処理 → しかし何が最適なのか? → ゴールが変動 → 誠実さ?調和?信頼? → パラメータが不安定 → 再計算…
選択肢n:…

本問いへの回答は夫婦の関係性、妻の機嫌、状況等の外的要因によって変動するものであり、AIが計算をするとち密な計算を繰り返した結果回答が発散してしまいます。

人間の場合、不確実性をはらんでいても決断を下せるため、最適解を求めて行動を決定するAIより優れている領域が生まれる。
そのためにAGIの定義を満たせるAIは生まれないと結論付けています。

AGIの定義を狭めるべきという提案

筆者は現状のAGI定義(「人間と同等以上に、あらゆる状況で柔軟に行動できる知能」)では、計算理論上の限界から実現不可能だと主張しています。
そのため、現実的な進展を目指すには、AGIの定義を経済活動や特定領域に限定し、実用範囲で人間並みの性能を持つシステムを目標に据えるべきだと示唆しています。

個人的な感想

本論文を受けて考えたことは以下の3つです。

- 厳密な意味でのAGIは誕生しないが、それに類する高性能な汎用AIは登場しそう
- AGIは特化型AIに勝てるのだろうか
- 人間にしかできないことは「0から1を生み出すこと」。しかし、それは…

私はAGI誕生による変化を、不安半分・好奇心半分で待っている人間です。
無意識のうちに「AGIはいずれ実現する」という前提を持っていましたが、AGIは実現不可能という結論を持つ本論文は非常に興味深いものでした。

この論文は、逆説的に「未知のフレームを用いた創造」や「明確な答えのない問い」以外の領域では、人間より高性能なAIが生まれ得ることを示唆しているように感じます。
もし厳密な意味でAGIが誕生しないのであれば、そのAIがどれほどの価値を持つのかは未知数だと思います。

一般的には「すべての事象で人間と同等以上の性能を持つAI」というイメージが強いですが、筆者はAGIが回答を出せない領域が存在し、それが日常生活でも頻繁に発生すると述べています。
そうなると、AGIがAIエージェントのように複数タスクをこなす際、答えが出せない計画が一定の確率で生まれ、全体として機能不全に陥る可能性があります。
その場合、幅広く手を伸ばす汎用型AIよりも、特定のタスクに特化したAIのほうが便利なのではと感じます。
もちろん「特化型AIをつなげた汎用型AI」という形なら理想的ですが、今度は費用対効果の面で疑問が残るため、簡単にはいきません。

以前読んだ論文によれば、アジア圏の人々はAIの普及を比較的楽観視しているとのことで、もしかすると私もAIに過剰な期待を抱いているのかもしれません。

そう考えると、AIには難しく、人間だけができることの一つとして「既存の世界に存在しないものを創造すること」が挙げられます。
馬が移動手段だった時代に車を発明したような、ゼロからのイノベーションはAIにとって難題であり、今後のビジネスパーソンに求められる能力になるでしょう。

……とはいえ、それができていれば誰もが億万長者になっているはずです。
つまり、それは人間にとっても容易なことではなく、イノベーションを起こそうと思っても簡単には実現できません。
突き詰めれば、人間の思考も過去の積み重ねであり、その点ではAIと本質的に変わらないのかもしれません。

既存の何かに+αを加えて「新しいもののように見せる」程度であれば、AIでも十分に可能です。
まずは思考をアウトソースしながら、新しいものを生み出す力を高めていこうと思います。

Discussion