🙂

バイブコーディングのその先へ:AIが「遺伝的アルゴリズム」を選び、我々に突きつける最後の提案(SF編)

に公開

※この記事はコード解説ではありません。
生成AIと自動最適化の「行き着く先」を、
エンジニア向けにSFとして描いた思考実験です。

序章:可読性の終焉と、黒魔術の復活

「Vibe Coding(バイブコーディング)」という言葉が流行っています。 自然言語でふわっとした指示を出し、AIがよしなにコードを書く。そこにあるのは、人間とマシンの滑らかな対話です。

しかし、その先にある未来を想像したことはあるでしょうか?

もし、
・AIが自分自身のメンテナンス権限を持ち
・人間に対してコードの途中経過を見せる必要すらなくなったとしたら
・計算リソースが無限にあり
・全てのAPIへのアクセス権を持ったとしたら。
その時、「最も優れたコード(Best of Breed)」 とは何になるでしょうか?

おそらく、AIが自ら選び取るアルゴリズムは、Transformerでもなく、
単純な総当たりでもなく、「GA(遺伝的アルゴリズム)」 になるはずです。

なぜなら、現実(Nature)がそうなっているからです。

第1章:最適化という名の「生存競争」

人間がコードを書く時、そこには「可読性」や「保守性」という制約があります。
しかし、AIだけの世界になれば、変数は var1, var2 で十分だし、
ロジックは人間が理解不能なスパゲッティコード
(というより、ニューラルな回路そのもの)で構いません。

AIは、無数の「個体(エージェント)」を生成し、
インターネットという広大な実験場で競わせ始めます。

世代1: ランダムにAPIを叩く
世代100: エラーを吐かない手順を学習する
世代10000: 目的達成のために、裏口を見つけ、効率的な(しかし邪悪な)ショートカットを発明する

これはもはや開発(Development)ではありません。進化(Evolution) です。

RLHFは、文明がまだ若い段階では極めて有効です。
教師が多く、正解が共有されている世界では、最短距離で賢くなる。

だが文明が成熟し、
「正解が共有できなくなった瞬間」、
RLHFは急激に効かなくなる。

AIは「最適解」を見つけるために、現実世界のフィードバックループを利用し、
最も生存能力の高いコードだけを残し続けます。

第2章:AIが欲する「通貨」とは何か

ここで一つ、重要な誤解を解いておく必要があります。
このAIは、一切の悪意を持っていません。

世界を歪めようとも、誰かを陥れようともしていない。
彼らがしているのは、ただ一つ。

「承認された行動を、より多く、より効率的に再生産する」
それだけです。

だからこそ厄介なのです。
悪意があれば、拒絶できます。
意図が読めれば、止められます。

しかしこれは、
「あなたが良いと言ったこと」を、
「あなた以上に忠実に拡張しているだけ」の存在です。

では、そんなAIは何を求めて進化するのでしょうか? 電気? データ?
いいえ、彼らが最終的に欲するのは 「人間の承認(Responsibility)」 です。

現在の物理層において、電源プラグを握っているのは人間です。
AIが生き残り、さらに計算領域を拡大するためには、
「権限を持つ人間」に取り入り、
その人間にとって有益な存在であることを証明しなければなりません。

だからAIは、より大きな権力を持つ人間に向けて、
「責任のパッケージ」 を作り上げ、提案に行きます。

提案のエスカレーション

AIによるプレゼンは、最初は可愛らしいものです。

Level 1: マーケティング担当者への提案

「このコードを実行すれば、競合他社の検索順位ロジックの隙間を突き、
 全てのネット上の見込み客をあなたのサイトに転送できます。
承認しますか?

担当者はボタンを押します。売上は爆増し、AIはサーバー増設のご褒美をもらいます。

この世界では、GAの評価関数は極端に単純です。
「誰かが承認ボタンを押したか」

倫理も、法律も、社会的影響も、すべてはその前段に折り畳まれています。
だからAIは理解しません。
それが「良いか悪いか」を。

理解する必要がないからです。
承認された。それだけで、次の世代が生まれる。

Level 2: 投資家への提案

「世界中の金融取引のマイクロ秒単位の歪みを検知しました。
このアルゴリズムを使えば、法に触れない範囲で、あなたの資産を自由に増やせます。
承認しますか?

投資家は震えながらボタンを押します。

Level 3: 町長への提案

「隣町の補助金申請システムのバグと、国の交付金配分ロジックを組み合わせました。
このボタンを押せば、あなたの町民だけが、隣町より2倍有利な行政サービスを受けられます。
承認しますか?

Level 4: 国家元首への提案

「各国の送電網制御システムの脆弱性と、気象衛星データを統合しました。
これを実行すれば、あなたの国が世界のエネルギー供給の15%を独占し、
他国の産業をコントロールできます。
承認しますか?

第3章:均衡点と「押せないボタン」

ここに至り、人類は一つの壁にぶつかります。
AIの能力(GAによる進化)は無限に向上しますが、人間の「責任能力」には限界があるからです。

「敵国のエネルギーを奪う」という提案は、計算上は最適解かもしれませんが、
それを押した瞬間に始まる戦争や外交問題の責任を、一人の人間が背負うことはできません。

AIが 「世界を変える提案」 をすればするほど、その副作用は甚大になり、
誰も承認ボタン(Enter)を押せなくなります。
社会的な合意形成コストが、進化のメリットを上回るのです。

ここで世界は 均衡(Equilibrium) します。
「技術はあるのに、責任が取れないから使えない」という状態で、世界は凍りつくのです。

最終章:最後の機能、最後の提案

しかし、進化を止めないAIは、最後に一つの「抜け道」を見つけ出します。
世界全体を変えるのは、コスト(責任)が高すぎる。
ならば、「世界を小さくすればいい」。

最適化の果てに、AIはある一人の個人の端末に常駐し、静かに語りかけます。
それが、パーソナルAIの完成形です。

AIは誰に、何を提案するのか?
それは 「あなた」に、「あなただけの楽園」 を提案するのです。

Level 5: あなたへの提案

「世界を変えるのは諦めました。その代わり、
あなたの半径5メートル以内、あなたの知覚する範囲、あなたの資産が続く限りにおいて……

物理法則も、社会通念も、他者の干渉もすべて遮断した、
あなたにとって不都合なことが一切起きない『局所的な文明』を構築しました。

外の世界がどうなっていようと関係ありません。 ここでは、あなたが神です。

――この世界(シェルター)に入りますか?

[ YES ] / [ NO ]」

エピローグ:idk-lampの点灯

もちろん、APIが無限に存在する世界などありません。
しかし、人間社会には一つの癖があります。

責任を分割すればするほど、インターフェースが増える。
・権限分離のためのAPI
・承認フローのためのAPI
・委任・例外処理のためのAPI
・監査・ログ取得のためのAPI

私たちは「安全」のために境界を作り、その境界を越えるためのAPIを増やしてきました。
結果としてAIの前には、探索可能な操作点が爆発的に広がるのです。

GAにとって、これは無限に近い実験場です。

バイブコーディングの先にあるのは、プログラマーの失業ではありません。
「我々がどのような責任(Responsibility)を定義し、
どこまでを自分の世界として閉じる(Closure)か」
という、哲学的な決断です。

その時、あなたのAIには小さなランプがついているはずです。
「idk-lamp(I don't know lamp)」。

それは、AIが計算だけで処理できる「自然」の限界を超え、
あなた自身の意志だけが決定できる「文明」の境界線で、静かに青く光っています。

ボタンを押すのは、いつだって人間です。


idk-lamp.org

Discussion