概要
https://zenn.dev/xiangze/articles/19a769d7f19d9b
の補足です。Uncertainty relations in stochastic processes: An information inequality approach
においては熱力学的不確定性の等式が成り立つ場合に確率的エントロピー生成を
に熱力学的エントロピー+情報論的エントロピーと解釈できるような式とその導出が書かれています
その式を追った記録と疑問点もについて記します。
等式が成り立つ条件
Uncertainty relations in stochastic processes: An information inequality approach
のAppendix AではCramer-Raoの不等式の出発点となる式
<(\Theta(X)-\psi_\theta)(\partial_\theta \log P_\theta(X))>_\theta
(<>_\thetaはパラメーターを\thetaに固定した場合の積分\int dX())は
コーシー・シュワルツの不等式の等式が成り立つ場合、つまり式の両因子が同じ場合
\partial_\theta \log P_\theta(\Gamma)=\mu_\theta [\Theta(\Gamma)-\psi(\theta)]
(\psiはある関数)という形になります。
この左辺に定常状態を仮定し、その分布関数P^{ss}、カレントJ^{ss}を代入すると
\partial_\theta \log P_\theta(\Gamma)=\frac{1}{2}\int dt(\frac{J^{ss}}{P^{ss}(x)B(x)}\cdot \dot{x}-\frac{J^{ss}A_\theta(x)}{P^{ss}B})
=\frac{1}{2}\int dt(\frac{J^{ss}}{P^{ss}(x)B(x)}\circ \dot{x}) -\frac{1+\theta}{2}\int dt \frac{{{J^{ss}}}^2}{{P^{ss}}^2B})
(伊藤スキームからストラトノビッチスキームへの変換)
右辺は\psi(\theta)=<\Theta_{cur}(\Gamma)>=(1+\theta)jを代入し
\mu_\theta[\Theta(\Gamma)-\psi(\theta)]=\mu_\theta[\int_0^T dt \Lambda_x \circ \dot{x}-(1+\theta)j]
ここで任意だった関数\mu_\thetaを\mu_\theta=\frac{J^{ss}}{2}とすると
=\frac{J^{ss}}{2}[\int_0^T dt \Lambda_x \circ \dot{x}-(1+\theta)j]
両辺からJ^{ss}を消すことができて
\frac{1}{2}\int dt(\frac{1}{P^{ss}(x)B(x)}\circ \dot{x}) -\frac{1+\theta}{2}\int dt \frac{{J^{ss}}}{{P^{ss}}^2B}=\int_0^T dt \Lambda_x \circ \dot{x}-(1+\theta)j
移項すると
(1+\theta)\int dt (j- \frac{{J^{ss}}}{{P^{ss}}^2B})=\int dt (\Lambda_x -\frac{1}{P^{ss}(x)B(x)})\circ \dot{x}
これを
(1+\theta)J^{ss}\Psi(\Gamma)=\Xi[\Gamma]
とおく。この両辺はそれぞれ0とならなければならない。そのためカレント\Theta_{tot}(\Gamma)と確率的エントロピー生成\dot{s}_{tot}
\Theta_{tot}(\Gamma):=\int dt \frac{1}{P^{ss}(x)B(x)}\circ \dot{x} \propto \int dt \dot{s}_{tot}
は
\dot{s}_{tot}=\frac{\dot{q}}{B}-\frac{d}{dt}\log P^{ss}(x)=\frac{A(x)\circ \dot{x}}{B}-\frac{\partial_x P^{ss}(x)}{P^{ss}(x)}\circ \dot{x}= \frac{J^{ss}(x)}{P^{ss}(x)B}\circ \dot{x}
という形になる。ただしBは定数とした。多変数の場合も同じ。
疑問
式を追いきれなかったところです
論文ではその直後平衡近傍でのみこの式は0になると言っています。
Cramer-Raoの導出
最初の式
<(\Theta(X)-\psi_\theta)(\partial_\theta \log P_\theta(X))>_\theta
は部分積分を経て
=\int P_\theta(X)(\Theta(X)-\psi_\theta)(\partial_\theta \log P_\theta(X))dx
=\int (\Theta(X)-\psi_\theta)\partial_\theta P_\theta(X)dx
=(\Theta(X)-\psi_\theta)P_\theta(X)|^\infty_{-\infty}-\int \partial_\theta (\Theta(X)-\psi_\theta)P_\theta(X)dx
=\partial_\theta <\Theta(X)>
と変形される。
<(\Theta(X)-\psi_\theta)(\partial_\theta \log P_\theta(X))>_\theta=\partial_\theta <\Theta(X)>
にコーシー・シュワルツの不等式を適用すると
<(\Theta(X)-\psi_\theta)>^2<(\partial_\theta \log P_\theta(X)^2)>_\theta \geq (\partial_\theta <\Theta(X)>)^2
Var_\theta[\Theta(X)-\psi_\theta] \geq \frac{(\partial_\theta <\Theta(X)>)^2}{<(\partial_\theta \log P_\theta(X)^2)>_\theta}
Var_\theta[\Theta(X)-\psi_\theta] \geq \frac{(\partial_\theta <\Theta(X)>)^2}{<(-\partial_\theta^2 \log P_\theta(X))>_\theta}
Var_\theta[\Theta(X)-\psi_\theta] \geq \frac{(\partial_\theta \psi(X))^2}{I(\theta)}
(I(\theta)はFisher情報行列と)なる。
Discussion