なぜ、AGIの登場は今から30年後くらいになるのか?
はじめに
近年、生成AI(特に大規模言語モデル:LLM)の進化は目覚ましく、さまざまな分野で実用化が進んでいます。
その圧倒的な性能向上を目の当たりにして、「このまま進化を続ければ、人間と同等の汎用人工知能(AGI)が数年以内に誕生するのではないか」と考える人も少なくありません。
しかし実際には、現在のLLMは急峻な成長曲線の立ち上がりを終え、すでに飽和領域に差しかかっていると考えられます。
本稿では、なぜAGIの登場が今からおよそ30年後になると予想できるのかについて、以下の観点から論じます。
- LLMの構造的限界
- 強化学習と自己改善の欠如
- 資源制約
- 技術史的なパラダイム転換周期
LLMの構造的限界:百科事典型知能の壁
現在のLLM(GPTやClaudeなど)は、基本的に**事前学習(pretraining)によって獲得した膨大なテキストデータに依存しています。
この仕組みは、たとえるなら「百科事典を丸ごと飲み込んだ学者」**のようなもので、既知の情報を幅広く提供することは得意ですが、自らの内部構造を進化させることはできません。
事前学習は、数兆単語規模の大量テキストデータを使って次に来る単語を予測させ、パラメータを最適化する工程です。
モデル規模や計算量を増やすことで性能は向上しますが、その関係はスケーリング則に従って対数的です。
つまり、計算資源を10倍にしても性能はせいぜい1.3〜1.7倍程度しか上がらず、
現在のように数兆パラメータ規模に到達したモデルでは、巨大化による性能向上は急速に鈍化しています。
言い換えるなら、私たちは今、急な登り坂を登りきって、頂上手前のなだらかな稜線にさしかかっているような状態です。
急激な成長期はすでに過ぎ去り、これからはどれだけ進んでも景色が少しずつしか変わらない区間に入っています。
将棋・囲碁AIに見る自己改善能力とLLMの対比
ここで、自己改善能力を持つAIとして有名なAlphaZeroを取り上げます。
AlphaZeroは、DeepMind社が開発した将棋・囲碁・チェスなどのボードゲーム専用AIであり、
事前学習を一切行わず、完全に自己対局(強化学習)だけで世界最強に到達したことで知られています。
AlphaZeroはランダムなニューラルネットワークから出発し、
ランダムな手で対局 → 勝敗結果を報酬として重みを更新 → 改良版同士で再対局 → 再学習
というサイクルを何百万局も繰り返し、自力で定跡や戦術を発見しました。
ここでは事前に人間の棋譜や知識を与える必要は一切なく、経験だけで強くなる自己改善型の知能構造が機能しています。
一方、LLMはこれと正反対です。
LLMでは膨大なテキストデータを使って知識や推論パターンを獲得しますが、
RLHF(人間フィードバックによる強化学習)は応答の傾向を調整する最終層の微調整にとどまり、自己改善には使われません。
つまりLLMは、環境と相互作用して自らを作り変える能力がほぼゼロなのです。
AGIに求められるのは、人間のように「失敗から学び、自分自身を改善する能力」です。
AlphaZero型の強化学習がその一例ですが、LLMにはそれが存在しません。
この「自己改善ループの欠如」こそが、AGIへの道を阻む最大の構造的壁となっています。
資源制約:計算資源とデータ資源の限界
「ハードウェアが進化すればAGIに近づくのではないか」という意見もありますが、現実的にはそれにも限界があります。
まず深刻なのがデータ資源の枯渇です。
高品質な未使用テキストデータはほとんど使い尽くされており、
今後は人手精製データや合成データの生成コストがボトルネックになります。
AlphaZero型のように自己対戦で無限にデータを生成できる構造を持たないLLMにとって、これは決定的な制約です。
さらに計算資源の効率限界もあります。
仮にNVIDIAが現在の10分の1の消費電力で10分の1の価格のGPUを開発したとしても、
得られる性能向上はスケーリング則によりせいぜい今の2倍前後にとどまると予想されます。
人間レベルの汎用知能に近づくには、桁違いの性能が必要ですが、単なる計算力増強ではそこに届きません。
技術史的に見たパラダイム転換周期
もうひとつ無視できないのが、技術史におけるパラダイム転換に要する時間です。
過去を振り返ると、本質的な転換にはつねに20〜30年規模の期間がかかっています。
- 1947(トランジスタ)→ 1971(マイクロプロセッサ):約24年
- 1956(初期AI)→ 1986(バックプロパゲーション普及):約30年
- 1986(ニューラルネット再興)→ 2012(深層学習ブレイク):約26年
- 1990(Web)→ 2007(スマートフォン):約17年
これらは単にハードの進化を待ったのではなく、根本的な設計思想や理論の再構築に長い時間を要した結果です。
AGIも同様に、LLMを単に巨大化するのではなく、自己改善・動機・記憶・推論を統合する全く新しいアーキテクチャを作る必要があります。
その構想・実装・普及にはやはり数十年単位の時間が不可欠です。
まとめ
以上のように、AGIの登場が今からおよそ30年後になると考えられる理由は以下のとおりです。
- LLMは事前学習依存であり、巨大化による性能向上が飽和しつつある
- LLMには自己改善を可能にする強化学習的構造がほとんど存在しない
- 計算資源やデータ資源の制約が、今後の性能向上を強く抑制する
- 技術史的に見ても、根本的パラダイム転換には20〜30年規模の時間が必要
現在のLLMは、急峻な登り坂(2022年頃)を過ぎ、頂上手前のなだらかな稜線(2025年頃)に入りつつあります。
今後は「外付けツールやエージェント的構造」による機能拡張は進むものの、モデル単体としての「賢さ」は大きくは伸びません。
本質的なAGIは、LLMとは異なる「自己改善可能な知能アーキテクチャ」の誕生を待たねばならず、その実現には今後およそ30年が必要と見られます。
かつて「シンギュラリティ」という言葉は、遠い未来の夢物語として語られていたために盛んに用いられていました。
ところが近年、AGIの可能性がある程度現実味を帯びてきたことで、
夢物語という枠から外れ、むしろこの言葉自体があまり語られなくなるという逆説的な現象が起きています。
しかし本来の意味──自己改善が指数関数的に始まる臨界点──に立ち戻れば、
それは2050年代半ばごろに訪れる未来の転換点として、再び真面目に議論されるべき概念だと言えるでしょう。
Discussion