📔

Botter自主ゼミノート 4.2 確率積分

2023/01/13に公開

やること

https://www.amazon.co.jp/dp/4254209444
を読んで、確率微分方程式による最適化問題を解けるようになることです。

これまでのBotter自主ゼミノート

Botter自主ゼミノート 1.2 確定システムの制御の回顧
Botter自主ゼミノート 2.1 確率過程とは?, 2.2 確率過程の数学的表現
Botter自主ゼミノート 1.2 数式導出
Botter自主ゼミノート 2.3 確率モーメント
Botter自主ゼミノート 2.4 確率過程の分類
Botter自主ゼミノート 2.5 エルゴード性
Botter自主ゼミノート 2.6 確率過程の周波数表現
Botter自主ゼミノート 2.7 マルコフ過程
Botter自主ゼミノート 2.8 正規型確率過程
Botter自主ゼミノート 2.9 ウィーナ過程(1)
Botter自主ゼミノート 2.9 ウィーナ過程(2)
Botter自主ゼミノート 2.10 白色雑音
Botter自主ゼミノート 3.1, 3.2 確率変数列の収束
Botter自主ゼミノート 3.3 確率過程の連続性
Botter自主ゼミノート 3.4 自乗平均微分
Botter自主ゼミノート 3.5 自乗平均積分
Botter自主ゼミノート 4.1 確率微分方程式とは?

4.2 確率積分

伊藤確率積分の定義

T = [a,b]とし、\{w(t, \omega)\}を分散\sigma^2を持つ (スカラー) ウィーナ過程とします。確率関数g(t, \omega)T \times \Omega上で定義されるものとし、a=t_0, t_1, < \cdots < t_N = bのように分割するものとします。

ここで、以下のような階段関数g(t, \omega)を考えます。

g(t, \omega) = \begin{cases} g_i(t) & t_i < t < t_{i+1} \\ 0 & \text{otherwise} \end{cases} \tag{4.6}

ただし、g_i(\omega)は、ウィーナ過程の増分\{w(\tau, \omega) - w(t_{i+1}, \omega\} \: (t_{i+1} \le \tau \le b)とは独立で、かつ\mathcal{E}\{|g_i(\omega)|^2\} \le \inftyとします。

この時、伊藤積分は以下のように定義されます。

\int_{a}^{b} g(t, \omega) dw(t, \omega) := \sum_{i=0}^{N-1} g_i(\omega)[w(t_{i+1}, \omega)-w(t_i, \omega)] \tag{4.7}

つぎに、\{g^{(N)}(t, \omega)\}を、\int_{a}^{b} \mathcal{E}\{|g(t, \omega) - g^{(N)}(t, \omega)|^2\}dt \to 0 \quad (N \to \infty)の意味で確率関数g(t, \omega)に自乗平均収束する階段関数列を考えて、さらに以下の式を式変形していきます。

\mathcal{E}\left\{ \left| \int_{a}^{b} g(t, \omega) dw(t, \omega) - \int_{a}^{b} g^{(N)}(t, \omega) dw(t, \omega) \right|^2 \right\}
= \mathcal{E}\left\{ \left| \int_{a}^{b} \left[ g(t, \omega) - g^{(N)}(t, \omega) \right] dw(t, \omega) \right|^2 \right\} \tag{A}
\begin{aligned} &= \mathcal{E} \left\{ \left| \sum_{i=0}^{N-1} \left[ g(t, \omega) - g_i^{(N)}(\omega) \right] \left[ w(t_{i+1}, \omega) - w(t_i, \omega) \right] \right|^2 \right\} \\ &= \sigma^2 \sum_{i=0}^{N-1} \mathcal{E} \left\{ \left| \left[ g(t, \omega) - g_i^{(N)}(\omega) \right] \right|^2 \right\} (t_{i+1} - t_i) \\ &= \sigma^2 \int_a^b \mathcal{E} \left\{ \left| \left[ g(t, \omega) - g_i^{(N)}(\omega) \right] \right|^2 \right\} dt \to 0 \quad (N \to \infty) \tag{4.8} \end{aligned}

式(4.8)より、式(A)はN \to \inftyとすると0となることがわかり、結果として以下のことが言えることがわかります。これは、自乗平均収束するような階段関数によって近似できる被積分関数g(t, \omega)を持つ確率積分は、式(4.9)のように自乗平均収束値として定義できることを示しています。

\int_a^b g(t, \omega) dw(t, \omega) = \underset{N \to \infty}{\text{l.i.m.}}\:\int_a^b g^{(N)}(t, \omega)dw(t, \omega) \tag{4.9}

ところで、g(t, \omega)\int_a^b \mathcal{E}\{|g(t, \omega)|^2\}dt < \inftyで、かつ\{w(\tau, \omega) - w(t, \omega)\} \: (t \le \tau \le b)と独立であれば、一般に階段関数で近似できることが示されています。そのような関数g(t, \omega)を被積分関数として持つ式(4.9)のような積分を、伊藤確率積分と呼ぶそうです。

より一般的な伊藤確率積分の定義

すべてのt \in Tに対してg(t, \omega)\mathcal{E}\{|g(t, \omega)|^2\} < \inftyを満たし、ウィーナ過程の増分\{w(\tau, \omega) - w(t, \omega)\} \: (t \le \tau \le b)と独立で、さらにTで自乗平均連続とすると、伊藤確率積分は以下のような自乗平均極限値と等しくなるそうです。

\int_a^b g(t, \omega)dw(t, \omega) = \underset{N \to \infty, \rho \to 0}{\text{l.i.m.}}\:\sum_{i=0}^{N-1} g(t_i, \omega)[w(t_{i+1}, \omega)-w(t_i, \omega)] \tag{4.10}

ただし、\rho := \text{max}_i (t_{i+1} - t+i)です。

この証明は、以下のようにしてできます。

I = \int_a^b g(t, \omega) dw(t, \omega) - \sum_{i=0}^{N-1} g(t_i, \omega)[w(t_{i+1}, \omega)-w(t_i, \omega)] \tag{B}

Iを式(B)のようにして定義し、\tau(t) = t_i \: (t_i \le t < t_{i+1})とすると、

I = \int_a^b [g(t, \omega) - g(\tau(t), \omega)]dw(t, \omega)

であるので、式(4.8)と同様の計算を行って以下の式が得られます。

\mathcal{E}\{|I|^2\} = \sigma^2 \int_a^b \mathcal{E}\{|g(t, \omega) - g(\tau(t), \omega)|^2\} dt

二次確率過程g(t, \omega)は自乗平均連続と仮定しているので、定理3.1 よりその自己相関関数\mathcal{E}\{|g(t, \omega)|^2\}Tで連続となるので、同時にTで有界であることがわかります。よって、\mathcal{E}\{|g(t, \omega) - g(\tau(t), \omega)|\}は、Tで一様有界であることがわかります。

さらに、\rho \to 0のとき\tau(t) \to tであるので、

\mathcal{E}\{|g(t, \omega) - g(\tau(t), \omega)|\} \to 0 \quad (\rho \to 0)

となり、結論として\mathcal{E}\{|I|^2\} \to 0 \: (\rho \to 0)が得られ、式(4.10)が成立することがわかります。

この教科書では、確率微分方程式を動的システムのモデルとすることから

x(t, \omega) = \int_{t_0}^t g(\tau, \omega) dw(\tau, \omega) \quad (t \in T) \tag{4.11}

のように、積分の上限tの関数として伊藤積分を考えます。

伊藤確率積分の性質

ここからは、教科書で紹介されている式(4.11)の形で表現された伊藤確率積分の性質を書いていきます。

  1. g(t, \omega), f(t, \omega)\{w(\tau, \omega) - w(t, \omega)\}\:(t \le \tau)とは独立で、\int_{t_0}^t \mathcal{E}\{|g(\tau, \omega)|^2\} < \infty, \int_{t_0}^t \mathcal{E}\{|f(\tau, \omega)|^2\} < \inftyを満たす関数とすれば、次の式が成り立ちます。
\mathcal{E}\left\{ \int_{t_0}^t g(\tau, \omega)dw(\tau, \omega) \right\} = 0 \tag{4.12}
\mathcal{E}\left\{ \left[ \int_{t_0}^t g(\tau, \omega)dw(\tau, \omega) \right] \left[ \int_{t_0}^t f(\tau, \omega)dw(\tau, \omega) \right] \right\}\\ = \sigma^2 \int_{t_0}^t \mathcal{E}\{g(\tau, \omega)f(\tau, \omega)\} d\tau \tag{4.13}

特に

\mathcal{E}\left\{ \left| \int_{t_0}^t g(\tau, \omega)dw(\tau, \omega) \right|^2 \right\} = \sigma^2 \int_{t_0}^t \mathcal{E}\{|g(\tau, \omega)|^2\}d\tau \tag{4.14}
  1. a, bをスカラ定数としたとき
\int_{t_0}^t [ag(\tau, \omega) + bf(\tau, \omega)]dw(\tau, \omega)\\ = a \int_{t_0}^t g(\tau, \omega)dw(\tau, \omega) + b \int_{t_0}^t f(\tau, \omega)dw(\tau, \omega) \tag{4.15}
  1. \alpha, \beta > 0とすると
\Pr\left[ \left| \int_{t_0}^{t} g(\tau, \omega)dw(\tau, \omega) \right| > \alpha \right] \le \Pr\left[\int_{t_0}^t |g(\tau, \omega)|^2 d\tau > \beta \right] + \frac{\beta}{\alpha^2} \tag{4.16}
  1. 式(4.11)で定義されるx(t, \omega)過程は、Tで自乗平均連続であり、以下の式が成立します。 (教科書にある証明は省略します)
\underset{h \to 0}{\text{l.i.m.}}\:x(t+h, \omega) = x(t, \omega)
  1. x(t, \omega)過程はTにおいて確率1で連続。

  2. x(t, \omega)過程はマルチンゲール。 (教科書にある証明は省略します)

Discussion