AI Agent の認可を統計的決定理論で定式化する ― 十分統計量・RaoBlackwell・minimax による判断設計 ―

TL;DR
- AI Agent が人間の意思決定速度を超えた今、 Human-in-the-Loop による制御は原理的に破綻する可能性が高いです。
- AI Agent の認可は「人間の確認」ではなく、不確実性下の決定問題として定式化することが求められています。
- 本記事では、 AI Agent の認可を 統計的決定問題
として定式化します。(\Omega, \mathcal{X}, \Theta, \mathcal{P}, \mathcal{D}, L) - 古典的な統計学の枠組みである 統計的決定理論 を用いることで、 AI Agent の認可を数理的に定式化し、その限界を明らかにする試みを実施します。
- 統計的決定理論を適用することで、 十分統計量 による判断情報の純化、 Rao–Blackwell の定理 に基づく「説明・推論過程」の排除、 無限次元の壁 が招く「制御・評価・責任」の三重破綻など、認可設計における理論的限界を論じることを試みます。
- 理論的整備を踏まえて、具体的なシステム構成案として Envoy + OPA による認可システムの構築例を提示します。
背景と目的
近年の AI Agent は、単に推論結果を提示する存在ではなく、外部ツールやシステムを通じて 実際の行動を自律的に実行する主体 になりつつあります。
重要なのは、その 行動頻度と速度 です。
AI Agent は、人間の意思決定速度を大きく上回るスピードで、並列かつ継続的に行動を生成・実行できます。このとき、従来の Human-in-the-Loop による制御は、運用上の工夫や努力の問題ではなく、 原理的に破綻します。

これは「人間が怠慢だから」ではありません。制御対象のスケールと頻度が変化した結果です。
本稿の主張は次の通りです。
AI Agent が人間の意思決定速度を超えて行動する世界では、Human-in-the-Loop による制御は原理的に破綻します。そのとき「認可」は、人間の判断ではなく、 不確実性下の決定問題として定式化されなければなりません。
本稿の目的は、 AI Agent の認可を統計的決定理論の枠組みで定式化すること です。
認可を数理的に定式化ことにより、AI Agent 時代の認可設計について重要な示唆が得られます。なぜなら、実務的な「ガードレール」や「ポリシー」の問題を数学的な構造(関数空間や測度論)にマッピングすることで、 「どこまでが制御可能な領域か」「どこからが理論的に破綻する境界か」を厳密に峻別できるから です。
※ 本記事では、AI Agent の認可を数理的に定式化しますが、
「実際の現場では何が起きるのか?」をイメージしにくい方もいると思います。
同じ設計思想を、自治体職員の視点から物語形式で描いた記事も用意しています。
数式を追う前に雰囲気を掴みたい方は、先にこちらを読むのもおすすめです。
→ AI Agent は職員になれるか ― 統計的決定理論で「判断」を設計するということ(物語編)
統計的決定理論の基本構造
定義:統計的決定問題
統計的決定理論では、意思決定問題(統計的決定問題)は以下の6つの要素の組
(i) 標本空間と可測空間:
ここで
(ii) 観測空間:
ここで
(iii) 統計モデル(確率族):
ここで各
(iv) 行動空間:
ここで
決定関数(決定則):
(v) 損失関数:
リスク関数:
ここでは
リスク関数は、真の状態が
ここで重要なのは、パラメータ
具体例として、金融におけるテールリスク評価、経済学での不完全情報下の制度設計、信号処理におけるノイズ下の検出理論などが挙げられます。これらはいずれも「真の状態が未知で、判断の誤りが非対称な損失を生む」という共通の構造を有しており、判断を自動化・数理化せざるを得ない領域で広く活用されています。
AI Agent 認可の理論的定式化
本章では、前章で定義した統計的決定理論の枠組みを AI Agent の認可問題に適用します。具体的には、各要素を以下のように対応付けることで、認可を数理的な決定問題として扱うことができます。
| 理論的要素 | 記号 | AI Agent 認可における意味 | 具体例 |
|---|---|---|---|
| 全体空間 | 全ての本質的なランダムネスを含む母集合 | ユーザーの意図、システム状態、ネットワークの揺らぎ | |
| 観測空間 | Agent からの申請内容、コンテキスト、入力データ | プロンプト、ツール引数、ユーザー属性、現在時刻 | |
| パラメータ | リクエストの背後にある「真の意図」や「リスクレベル」 | 善意の問い合わせ(safe)、プロンプトインジェクション(unsafe)、権限昇格攻撃 | |
| 行動空間 | 認可システムが下す判断の集合 |
{Allow, Deny}, {Allow, Deny, AskHuman}
|
|
| 損失関数 | 判断を誤ったときに発生するコストや社会的損失 | 不正実行による情報漏洩コスト(大)、正当な業務の阻害コスト(小) | |
| 決定関数 | 入力 |
OPA (Regoポリシー), 決定木, ルールベース判定 |
この対応表に基づき、AI Agent の確率的な振る舞いを考慮した定式化を行います。
定義:ランダム化決定関数
AI Agent は、観測
定義(ランダム化決定関数):
可測写像
を ランダム化決定関数 といいます。これは、各
が成り立つとき、

なぜ AI Agent にランダム化が必要なのか:
従来の認可システムは、入力に対して一意な Allow または Deny を返します。しかし、LLM を中核に据えた AI Agent は、本質的に確率的な存在です。同じプロンプトに対しても異なる推論結果やツール実行(軌跡)を生成し得るため、その振る舞いは単一の行動ではなく、行動空間上の確率分布として捉えるのが自然です。また、理論的にもランダム化を導入することで、行動空間を凸化し、(
ランダム化決定関数のリスク:
ここで
すなわち、AI Agent は
一意な行動を下す装置ではなく、決定の確率分布を生成するランダム化された行動則
として数理的に扱われます。
十分統計量:判断に使う情報を固定する
定義:十分統計量
統計量
定理:因子分解定理(Neyman–Fisher)
ここで
AI Agent 認可における意味:認可とは「情報境界を定義すること」
AI Agent 認可において、十分統計量
十分統計量

この視点に立つと、認可設計で最も危険なのは、 判断に関係ない情報が意図せずポリシー評価器に流れ込み、不必要な条件分岐や例外を生んで攻撃面を増やしてしまうこと です。十分統計量の設計とは、これを構造的に禁止することに他なりません。
なお、この「判断に使う情報を先に固定する」という設計が、
実際の業務フローでどのような意味を持つかについては、
物語形式の記事で具体的なシーンとして描いています。
→ 物語編・第1章:十分統計量 ―「全部見ようとするから、判断できなくなる」
Rao–Blackwell の定理:理論的な情報の純化
定理:Rao–Blackwell
凸な損失関数を持つ決定問題において、任意の行動則
ここで
重要なのは、 十分統計量

AI Agent 認可における意味:「説明」や「推論過程」を消去する
Rao–Blackwell の定理は、十分統計量
ここで「消去される情報」とは、LLM の説明文、推論過程、あるいは納得感を与えるための語りなどを指します。重要なのは、これは「説明が不要」という主張ではない点です。定理が言っているのは、「それらの情報を判断に使っても、期待損失の観点では改善しない」という純粋に決定理論的な帰結です。

したがって、LLM の説明文や推論過程を認可判断から排除することは、セキュリティ上の勘や経験則ではなく、統計的決定理論に基づく正当な設計判断です。
完備性と Basu の定理:独立性と非揺らぎの保証
定義:完備性
統計量
定理:Basu の定理
AI Agent 認可における意味:完備性が示す「後出し解釈」の禁止
十分統計量だけでは不十分です。
実務的には、自然言語を入れない、連続値や曖昧なスコアを避ける、値域を有限集合(enum)に閉じるといった制約として現れます。これは、認可判断を時間・立場・解釈の変化から守るための設計思想です。
AI Agent 認可における意味:Basu が示す「説明と判断」の制度的独立
Basu の定理は、完備十分統計量

後から説明が追加されても判断は変わらず、表現が変わっても判断は揺れません。これにより、責任は「人」ではなく、「この判断は、この
minimax 原理:最悪ケースに対する安全性
最後に、不確実性下での判断基準(minimax)について触れます。
定義:minimax リスク
本稿では、認可の目的を次のように定式化します。
これは、まず自然の状態(敵手)が最悪のパラメータ
結論:安全性のための定式化
minimax 行動則

無限次元の壁:AI Agent の自由度と制御不能の理論的境界
これまで見てきたように、統計的決定理論は認可の堅固な基盤となります。しかし、AI Agent の認可を議論する際、避けては通れない理論上の「境界線」が存在します。それは、行動空間の「無限次元」への拡張という問題です。
数学的主張の整理:理論的限界
まず、数学的事実として正確な言い方に整えます。
数学的事実:
無限次元 Banach 空間値の確率変数に対しては、条件付き期待値が一般には存在しない(Bochner 条件付き期待値が定義できない場合がある)ことが知られています。行動空間や決定関数の空間が無限次元に拡張されると、以下の現象が理論的に排除できなくなります:
- 可積分性が壊れる: 期待値やリスクを有限の値として定義できなくなる。
- 決定集合のコンパクト性が失われる: 最適な決定が存在するための数学的条件が満たされない。
- minimax 解が存在しない可能性がある: 最悪ケースを最小化する戦略そのものを同定できない。
その結果、「最適な決定」や「最悪ケースに対する安全な決定」を厳密に定義できない状況が生じ得ます。ここで重要なのは、 「無限次元であれば必ず壊れる」ということではなく、「無限次元に踏み込むと、安全性を理論的に保証する手段が失われるリスクがある」 という点です。
AI Agent 認可への対応関係:理論の翻訳
これを AI Agent の文脈に対応付けると、極めて実務的な示唆が得られます。
AI Agent の行動(軌跡)を、観測
このとき、認可系で起きるのは以下の現象です:
- Rao–Blackwell による「安定化」ができない: 行動分布を条件付き期待値(平均)で扱うことができず、判断からノイズを排除して品質を向上させるプロセスが数学的に定義できなくなります。
- minimax が成立しない: 最悪のケース(深刻なセキュリティインシデント)を最小化する決定ルールを正しく定義できず、「責任を持てる判断」の存在自体が危うくなります。
- リスク評価の破綻: Bochner 可積分性が失われることで、AI の振る舞いがもたらす「期待損失」を数値で評価することそのものが不可能になります。
設計上の帰結:三重破綻の回避
ここから導かれる核心的な洞察は、 「AI Agent の行動範囲を無制限に広げることは、決定理論を無限次元に押し上げることと同型である」 ということです。そして、その領域に踏み込んだ瞬間に、設計者は以下の 三重破綻 に直面します。
- 制御できない
- 評価できない
- 責任を定義できない

これは、システムの実装が未熟だからでも、LLM の推論能力が低いからでもありません。数学的に 「安全なシステムが成立するための前提条件」を満たさなくなった結果 として生じる、不可避な破綻なのです。
まとめ:安全性のための定式化
無限次元の Banach 値空間では、条件付き期待値が一般に存在せず、minimax 解が存在しない可能性がある。これは、AI Agent を確率的な行動関数としてモデル化したとき、 行動空間を無制限に拡張すると、理論的に「最適な決定」や「安全な決定」を定義できなくなる可能性が生じる ことを意味する。
言い換えれば、AI Agent の行動範囲を無制限に広げることは、決定理論を無限次元に押し上げることと同じであり、その瞬間に「制御・評価・責任」は同時に破綻する。これは、ガードレール不要論や LLM への安易な信頼に対する、数理的に「できないことは、頑張ってもできない」という構造的な限界を明らかにしています。
この主張の位置づけ
この理論的主張は、 「設計可能性の上限(境界線)」を数学的に指し示すもの です。これは思想の問題ではなく、数理的に「制御」という概念そのものが定義不可能になる境界線を可視化しており、数理的に「できないことは、頑張ってもできない」という構造的な限界を明らかにしています。

この「無限次元に踏み込むと、制御・評価・責任が同時に壊れる」という話は、
抽象的に見えますが、実務では「AIを自由にしすぎた結果、判断できなくなる」
という形で現れます。
この感覚的な側面は、物語編・第6章で具体的に描いています。
実装例:Envoy + OPA による PEP / PDP 分離の具体像
以上の理論的整理は、システム設計としての PEP(Policy Enforcement Point)と PDP(Policy Decision Point)の分離 を必然的なものとして要請します。

理論を物理的な境界に落とし込む
具体的なシステム構成としては、Envoy を PEP、OPA を PDP とする構造に自然に落ちます。
-
PEP (Envoy): すべてのリクエストの入口で事実を収集し、完備十分統計量
を決定的に生成します。主体情報(JWT等)、行動(メソッド等)、リソース分類、運用上の事実(承認状態等)を事実ベクトルとして構成します。T(X) -
PDP (OPA):
のみを入力として受け取り、Rego ポリシーによって判断T(X) を評価します。\pi(T(X))
システム設計への帰結:PEP / PDP 分離の必然性
この構造では、説明は PEP 以前または判断後に生成される一方で、判断は常に
これは単なる実装上のベストプラクティスではありません。PEP が完備十分統計量を生成し、PDP がそれのみを評価するという分離は、Rao–Blackwell が要請する「判断に無関係な情報の平均化・消去」と Basu が保証する「説明と判断の独立性」を、プロセス境界として物理的に実現したものです。
おわりに:展望と課題
ここまで、AI Agent の認可を 統計的決定問題として見直し、
「ポリシーを書くこと」より前に 情報境界(十分統計量)を切ることが核心になる、という整理をしてきました。
ただ、正直に言うと、この記事はまだ「理論で描けた地図」を置いただけで、
このまま実際のシステムに持ち込めるかは分かっていません。
理由は大きく2つあります。
- まず、数理モデルと現実の AI Agent の挙動が、どのくらいズレるのかが見通せていない
(現実の入力はノイズも攻撃も多いし、モデルが仮定する確率構造がそのまま乗るとは限らない) - そしてもう一つが、この記事で登場した 期待値・確率・統計量が「実際に計算できるのか」 がまだ不明
(Rao–Blackwell 化や minimax を語るなら、少なくとも近似手順や計算可能性の議論が必要になる)
さらに言うと、統計的決定理論を AI(特にAI Agentの認可)にそのまま接続して議論している研究は、現時点ではほとんど見当たりません。
なので、ここで書いている定式化が「既存研究のどこに乗っているのか/どの仮定が危ういのか」も、まだ整理しきれていません。
だから今後は、机上の理屈で終わらせずに、
- PEP 側で生成する構造化データ
をどう設計するか(何を入れて、何を入れないか)T(X) -
に落としたときに、リスク評価や判断規則がどこまで計算・近似できるかT(X) - 実際の攻撃(プロンプトインジェクション・説得)に対して、本当に「情報境界」が効くのか
みたいなところを、小さな PoC から検証していきたいと思っています。
また、この記事の数理的な定式化については、ツッコミも含めてコメントを歓迎したいです。
「そこは十分統計量って言えないのでは?」「Rao–Blackwell の持ち出し方が違う」みたいな指摘も、むしろありがたいです。
(まさに、その手の議論をしたくてこの記事を書きました。)
AI Agent の時代、人間がループの中で毎回判断するのはもう無理です。
でも、だからといって「AI が判断しました」で済ませるのも無理です。
結局、必要なのは ループそのものを設計し直すことで、
その中核にあるのが「何を判断材料として認めるか」という情報境界の設計なんだと思っています。
この整理が、次の検証や議論の叩き台になれば嬉しいです。
📚 参考文献
本記事で参照した記事・ドキュメントを以下にまとめます。
筆者の関連記事
- AI Agent 時代に、認可は業務フローから切り離されるべき理由
- AI Agent 時代における認可技術の比較
- AI Agent は職員になれるか ― 統計的決定理論で「判断」を設計するということ(物語編)
外部記事・ドキュメント
- [1] 吉田朋広. (2006). 数理統計学. (No Title).
- [2] Berger, J. O. (2013). Statistical decision theory and Bayesian analysis. Springer Science & Business Media.
- [3] Ledoux, M., & Talagrand, M. (2013). Probability in Banach Spaces: isoperimetry and processes. Springer Science & Business Media.
- [4] Bochner integral - Wikipedia
- [5] Open Policy Agent (OPA)
- [6] Envoy Proxy
Discussion