📔

Botter自主ゼミノート 4.2 確率積分 例題4.1

2023/01/18に公開約4,100字

やること

https://www.amazon.co.jp/dp/4254209444
を読んで、確率微分方程式による最適化問題を解けるようになることです。

これまでのBotter自主ゼミノート

Botter自主ゼミノート 1.2 確定システムの制御の回顧
Botter自主ゼミノート 2.1 確率過程とは?, 2.2 確率過程の数学的表現
Botter自主ゼミノート 1.2 数式導出
Botter自主ゼミノート 2.3 確率モーメント
Botter自主ゼミノート 2.4 確率過程の分類
Botter自主ゼミノート 2.5 エルゴード性
Botter自主ゼミノート 2.6 確率過程の周波数表現
Botter自主ゼミノート 2.7 マルコフ過程
Botter自主ゼミノート 2.8 正規型確率過程
Botter自主ゼミノート 2.9 ウィーナ過程(1)
Botter自主ゼミノート 2.9 ウィーナ過程(2)
Botter自主ゼミノート 2.10 白色雑音
Botter自主ゼミノート 3.1, 3.2 確率変数列の収束
Botter自主ゼミノート 3.3 確率過程の連続性
Botter自主ゼミノート 3.4 自乗平均微分
Botter自主ゼミノート 3.5 自乗平均積分
Botter自主ゼミノート 4.1 確率微分方程式とは?
Botter自主ゼミノート 4.2 確率積分

例題 4.1

次の伊藤積分を計算します。

\int_{t_0}^t w(\tau, \omega) dw(\tau, \omega)

式(4.10)から、w_i = w(\tau_i, \omega), \tau_N = tとすると

\begin{aligned} \int_{t_0}^t w(\tau, \omega) dw(\tau, \omega) &= \underset{N \to \infty}{\text{l.i.m.}}\:\sum_{i=0}^{N-1} w(\tau_i, \omega)[w(\tau_{i+1}, \omega)-w(\tau, \omega)] \\ &= \underset{N \to \infty}{\text{l.i.m.}}\:\sum_{i=0}^{N-1} \left( \frac{w_i + w_{i+1}}{2} + \frac{w_i - w_{i+1}}{2} \right) (w_{i+1}-w_i) \\ &= \underset{N \to \infty}{\text{l.i.m.}}\:\sum_{i=0}^{N-1} \left( \frac{w_i w_{i+1} - w_i^2 + w_{i+1}^2 - w_i w_{i+1}}{2} + \frac{w_i w_{i+1} - w_i^2 - w_{i+1}^2 + w_i w_{i+1}}{2} \right)\\ &= \underset{N \to \infty}{\text{l.i.m.}}\:\sum_{i=0}^{N-1} \left( \frac{w_{i+1}^2 - w_i^2}{2} + \frac{w_i w_{i+1} - w_i w_{i+1} + w_i w_{i+1} - w_i^2 - w_{i+1}^2 + w_i w_{i+1}}{2} \right)\\ &= \underset{N \to \infty}{\text{l.i.m.}}\:\sum_{i=0}^{N-1} \left( \frac{w_{i+1}^2 - w_i^2}{2} + \frac{- w_i^2 + 2 w_i w_{i+1} - w_{i+1}^2}{2} \right)\\ &= \underset{N \to \infty}{\text{l.i.m.}}\:\sum_{i=0}^{N-1} \left( \frac{w_{i+1}^2 - w_i^2}{2} - \frac{(w_i - w_{i+1})^2}{2} \right)\\ &= \frac{1}{2}({w_{N}^2 - w_0^2}) - \frac{1}{2}\underset{N \to \infty}{\text{l.i.m.}}\:\sum_{i=0}^{N-1} (w_i - w_{i+1})^2\\ \end{aligned}

ここで最終行の第二項は、\mathcal{E}\{dw(\tau, \omega)\} = \sigma^2 d\tauであることを利用すると、\sigma^2(t - t_0)となり、結果として、伊藤積分の結果は以下のような値となります。

\int_{t_0}^t w(\tau, \omega) dw(\tau, \omega) = \frac{1}{2} \left[ w^2(t, \omega) - w^2(t_0, \omega) \right] - \frac{1}{2} \sigma^2 (t - t_0) \tag{4.17}

ここで、式(4.17)をx(t)としたとき、x(s)を実現値としたときのx(t)との差分 (t > s)を考えると

\begin{aligned} \mathcal{E}\{x(t)-x(s)\} &= \mathcal{E} \left\{ \frac{1}{2} \left[ \left[ w^2(t, \omega) - w^2(t_0, \omega) \right] - \sigma^2 (t - t_0) \right] - \frac{1}{2} \left[ \left[ w^2(s, \omega) - w^2(t_0, \omega) \right] - \sigma^2 (s - t_0) \right] \right\} \\ &= \mathcal{E} \left\{ \frac{1}{2} \left[w^2(t, \omega) - w^2(t_0, \omega) - \sigma^2 (t - t_0) - w^2(s, \omega) + w^2(t_0, \omega) + \sigma^2 (s - t_0) \right] \right\} \\ &= \mathcal{E} \left\{ \frac{1}{2} \left[w^2(t, \omega) - w^2(s, \omega) - \sigma^2 (t - s) \right] \right\} \\ &= \frac{1}{2} \left[\sigma^2 (t - s) - \sigma^2 (t - s) \right] \\ &= 0 \end{aligned}

となり、x(t)の平均値は実現値x(s)に帰することがわかり、x(t)はマルチンゲールであることがわかります。

Discussion

ログインするとコメントできます