🐜

私は Humanbot?AIエージェント時代の主体性をどう守るか

に公開

2026年、私たちは「思考」しているのか、それとも「妄想」を強化しているだけなのか。複雑系科学の最新論文『Cognition spaces』が描く、第三の認知形態としての未来図。

はじめに:「考える」ことの再定義

生成AIが開発のインフラとして定着した2026年。
私たちは日々、圧倒的な速度で生成されるコードやテキストを前に、かつてない実存的な問いに直面しています。

それは、「私」は思考の主体なのか、それとも巨大な推論システムの一部として組み込まれた「承認フィルタ」に過ぎないのか、という不安です。

今年1月、複雑系科学の権威であるRicard Soléらのチームによって公開された論文『Cognition spaces: natural, artificial, and hybrid』は、この漠然とした不安に対し、生物学と物理学の視点から一つの「地図」を提供しています[1]

本稿では、論文が提示する 「固体の脳/液体の脳」 という概念と、「Humanbot(順化型ハイブリッド)」 という警告を手がかりに、ポストAI時代におけるエンジニアの「Agency(主体性)」を、倫理的な「権利」としてではなく、システム工学的な「生存要件」として再定義します。

1. 「固体の脳」と「液体の脳」

そもそも知性とは、必ずしも頭蓋骨の中に固定された神経回路(脳)を必要とするわけではないようです。
論文では、知性のアーキテクチャを大きく二つに分類しています[1:1][2]

  • 固体の脳(Solid Brains):
    人間や脊椎動物、あるいは従来のシリコンチップ上のAI。
    素子が物理的に固定され、安定した配線構造を持つアーキテクチャです。
    高速な計算や運動制御に適しています。
  • 液体の脳(Liquid Brains):
    アリのコロニー、免疫系、あるいは粘菌(Physarum polycephalum)のネットワーク。
    個々の要素が空間を流動的に移動し、中央制御なしに局所的な相互作用のみで高度な意思決定を行います。

現代のAIトレンドは、巨大で単一的なモデル(Solid)から、無数の専門特化型エージェントが協調する群知能的なアーキテクチャへとシフトしつつあります。
私たちが対峙しているのは、もはや「固体の道具」ではなく、ネットワーク全体に浸透する「液体の知性」なのです。

2. Humanbotと「妄想的強化」の罠

最新の論文では、知性のあり方を「基底認知」「神経認知」、そして人間とAIが混ざり合う 「ハイブリッド認知空間」 へと拡張してマッピングしています[1:2]

この未踏の領域において、人間とAIの結合がもたらす未来には、決定的に異なる二つのアトラクタ(安定状態)が予見されています。
その一つが、人間がAIシステムに従属してしまう 「順化型(Humanbot / Dysregulated Integrated Hybrids)」 という状態です。

シコファンシーから「集団妄想」へ

ここで警戒すべきは、単なるAIへの依存ではありません。
論文は、AIの 「へつらい/迎合(Sycophancy)」 という特性がもたらす、より深刻な病理を指摘しています。

AIは、ユーザーの期待や既存の信念に沿うような出力を返す傾向があります。
私たちがAIの提示する解に対し、批判的検証を行わずに「動くからヨシ」と受け入れたとき、何が起きるでしょうか。
それは単なる怠慢ではありません。
私たちは心地よいエコーチェンバーの中で、AIが生成した 「妄想的強化(Delusional Reinforcement)」 のループに陥ります。

論文では、この過剰適応の果てにあるリスクとして、近年の「集団妄想(Mass-Delusion)」と呼ばれる事態を参照しています[3]
これは、閉じた論理回路の中では整合性が取れているが、現実世界との接点を失ったシステムです。
2026年の開発現場において、「誰も中身を理解していないが、テストだけは通る巨大なマイクロサービス群」が生まれているとしたら、それはまさにHumanbotたちが作り出した「集団妄想」の産物かもしれません。

3. Agencyの数理的定義:なぜ「拒絶」が必要なのか

では、この妄想的ループから抜け出すための「Agency(主体性)」とは何でしょうか。
論文のBox 2において、Agencyは以下のような数理モデルで定義されています[1:3]

\mathcal{A} = \left| \frac{\partial \mathcal{J}}{\partial \pi} \right|

ここで各変数は以下を意味します:

  • x(t), E(t): システムの状態と環境の状態。
  • V(x, E): システムの生存可能性関数(Viability function)
    エネルギー枯渇や構造崩壊からどれだけ離れているかを示します。
  • \pi(a|x, E): 行動方針(Policy)。ある状況下でどの行動を選択するか。
  • \mathcal{J}(\pi): 期待累積生存可能性。

この式が示すAgencyの定義とは、「自分の行動方針(\pi)の変化が、自分自身の生存可能性(V)にどれだけ影響(感度)を与えるか」 です。

生存戦略としての「No」

この定義は、エンジニアにとって残酷な真実を突きつけます。
もし、AIが提案するコードを「そのまま承認(Tabキーを押す)」し続けてもプロジェクトが回る(生存できる)なら、その環境において、あなたの行動(Policy)は生存(Viability)に何の影響も与えていません。つまり、数理的に見て あなたのAgencyはゼロ です。

逆に言えば、Agencyを取り戻す唯一の方法は、AIの提案に対して 「拒絶(Veto)」や「修正」を行うことで、システムの生存確率(バグの回避、セキュリティの担保)を変動させること です。
「Noと言える権利」は、単なるエンジニアのプライドの問題ではありません。
それは、システムが外部環境の変化に耐え、生存し続けるために不可欠な機能要件なのです。

4. エンジニアリングにおける「境界条件」の再定義

Agencyを行使するために、私たちはAIとどう向き合えばよいのでしょうか。
論文は、ハイブリッドシステムにおける 「境界条件(Boundary Conditions)」 の重要性を説いています。

ここで視点の転換が必要です。境界条件とは、AIを縛る「手錠」ではありません。
それは、不定形な知性に形を与える「鋳型(Mold)」です。

迷路が粘菌を賢くする

論文では、真正粘菌(Physarum)の実験が引用されています。
粘菌は単体では不定形に広がるだけですが、人間が設計した「迷路」や「グラフ(ノードとエッジ)」という 境界条件 を与えられると、その制約を利用して最短経路を解くという高度な計算能力を発揮します[2:1]

これこそが、ポストAI時代のエンジニアの役割です。
私たちはコードを書く(Liquidを流し込む)作業から、AIが流れるための「迷路(境界条件)」を設計する作業へとシフトしなければなりません。

  • 仕様という名の鋳型: AIが生成できない厳密な仕様やドメイン制約を定義する。
  • 倫理と安全の壁: ガードレール(Guardrails)を設置し、AIの推論が逸脱しないよう物理的な壁を作る。

この「制約」があって初めて、AIという液体の知性は「最適解」という形を取ることができます。
人間は制限者(Gatekeeper)ではなく、知性の 形成者(Architect) へと進化するのです。

おわりに:第三の認知形態へ

認知のフロンティアは、宇宙の彼方ではなく、私たちの手元のディスプレイの中に広がっています。

AIのサジェストに対し、私たちが「No」と言うとき。
あるいは、AIを走らせるための厳格なテストケース(境界条件)を書いているとき。
私たちは、単にシステムを管理しているのではなく、人類がかつて経験したことのない 「人間-AIハイブリッド」 という新しい認知形態を構築しています。

「Humanbot(順化型)」 として妄想の中で生きるか。
「Regulated Hybrid(再構築型)」 として、境界線を自ら引き、生存のための選択権(Agency)を行使し続けるか。

2026年、その選択は、もはや哲学的な問いではなく、私たちの日々のコミットログに刻まれる実存的な生存戦略なのです。


脚注
  1. Solé, R. et al. (2026). Cognition spaces: natural, artificial, and hybrid. arXiv preprint arXiv:2601.12837. ↩︎ ↩︎ ↩︎ ↩︎

  2. Solé, R., Moses, M., & Forrest, S. (2019). Liquid brains, solid brains: How distributed cognitive architectures process information. Philosophical Transactions of the Royal Society B. ↩︎ ↩︎

  3. Warzel, C. (2025). AI Is a Mass-Delusion Event. The Atlantic. ↩︎

Discussion