📔

Botter自主ゼミノート 6.1 動的システムの推定とは?

2023/02/05に公開

やること

https://www.amazon.co.jp/dp/4254209444
を読んで、確率微分方程式による最適化問題を解けるようになることです。

これまでのBotter自主ゼミノート

Botter自主ゼミノート 1.2 確定システムの制御の回顧
Botter自主ゼミノート 2.1 確率過程とは?, 2.2 確率過程の数学的表現
Botter自主ゼミノート 1.2 数式導出
Botter自主ゼミノート 2.3 確率モーメント
Botter自主ゼミノート 2.4 確率過程の分類
Botter自主ゼミノート 2.5 エルゴード性
Botter自主ゼミノート 2.6 確率過程の周波数表現
Botter自主ゼミノート 2.7 マルコフ過程
Botter自主ゼミノート 2.8 正規型確率過程
Botter自主ゼミノート 2.9 ウィーナ過程(1)
Botter自主ゼミノート 2.9 ウィーナ過程(2)
Botter自主ゼミノート 2.10 白色雑音
Botter自主ゼミノート 3.1, 3.2 確率変数列の収束
Botter自主ゼミノート 3.3 確率過程の連続性
Botter自主ゼミノート 3.4 自乗平均微分
Botter自主ゼミノート 3.5 自乗平均積分
Botter自主ゼミノート 4.1 確率微分方程式とは?
Botter自主ゼミノート 4.2 確率積分
Botter自主ゼミノート 4.2 確率積分 例題4.1
Botter自主ゼミノート 4.3 確率微分方程式
Botter自主ゼミノート 4.4 伊藤の確率微分演算
Botter自主ゼミノート 4.5 拡散過程
Botter自主ゼミノート 4.6 確率密度関数の時間進化 - コルモゴロフ方程式

6.1 動的システムの推定とは?

動的システムの状態推定問題の定義

教科書では、まず動的システムの状態推定問題がどのようなものかを定義しています。

まず、以下の動的システムが与えられているとします。

dx(t) = f[t, x(t)]dt + G[t, x(t)]dw(t), \quad x(t_0) = x_0 \tag{6.1}

私達はこのシステムの状態量x(t) \in R^nを直接測定することはできず、何らかの観測機構を通してx(t)に付いての情報を得ています。ここで、観測機構には常に雑音などの外乱が混入していると考え、そのモデルを以下のように考えてみます。

y_0(t) = h[t, x(t)] + R(t)\theta(t)

ここで、y_0(t) \in R^m : (m \le n)は観測量ベクトルで、\theta(t)は正規性白色雑音とします。どのような周波数成分の雑音が入るかが不明なため、雑音は白色雑音とするのが適当です。しかし、白色雑音が現実的に存在し得ない確率過程であるので、このモデルも現実的には存在しません。

そこで、以下のような確率微分方程式をもって動的システムのモデルとします。

dy(t) = h[t,x(t)]dt + R(t)v(t) \tag{6.2}

ここでv(t)過程はv(t) = \int_\cdot^t \theta(\tau) d\tauによって導入された標準ウィーナ過程で、観測過程y(t)と観測量ベクトルy_0(t)y(t) = \int_\cdot^t y_0(\tau) d\tauの関係があります。

[t_0, t]の時間区間で得られる観測データ\{y(\tau), t_0 < \tau \le t\}は不規則なので、それに基づいて何らかの方法でシステムの真の値x(t)を時々刻々と求めなければいけません。この問題を動的システムの状態推定問題と呼びます。

予測問題・フィルタリング問題・平滑問題

システムの真の値を推定する場合、観測データY_t = \{y(\tau), t_0 < \tau \le t\}に基づいて、真値x(t)に"できるだけ近い"値\hat{x}(t)を求めればよいですが、x(t, \omega)は確率過程ですので色々な値を取りえます。

そのため、推定誤差ベクトルを何らかの意味で最小化するような\hat{x}(t)を求める必要がありますが、真値x(t)を直接知ることは不可能なので、推定誤差も知ることができません。そこで、ガウスの時代から用いられている二乗規範に基づいて。

\mathcal{E}\{||x(t) - \hat{x}(t)||_M^2\} = \mathcal{E}\{[x(t)-\hat{x}(t)]^T M [x(t) - \hat{x}(t)]\} \tag{6.3}

という規範を用います。Mn \times n次元正定対称行列です。この規範の最小化は観測データY_tに基づいてされなければいけないので、その結果得られる最適な推定値は観測データの関数となります。

取得される観測データがY_s = \{y(\tau), t_0 < tau \le s\}であるとき、推定値を得たい時刻tと観測データが得られている時間sの大小関係によって、推定問題は以下のように呼ばれます。

  1. t > sの時、予測問題 (\hat{x}(t)を予測値と呼ぶ)
  2. t = sの時、フィルタリング問題 (\hat{x}(t)を推定値と呼ぶ)
  3. t < sの時、平滑問題 (\hat{x}(t)を平滑値と呼ぶ)

最適な推定値\hat{x}(t)はどんな値なのか?

\hat{x}(t)Y_tにより生成される関数ですが、Y_tは一本の見本過程にすぎません。したがって、もっと一般的にどのような観測データが得られたとしても、\hat{x}(t)はその観測データの関数として生成されなければいけません。

ここで、\mathcal{E}\{\cdot | \mathcal{Y}_t\}\mathcal{Y}_tの条件付き期待値演算子とすれば、期待値演算の性質\mathcal{E}\{\mathcal{E}\{\cdot | \mathcal{Y}_t\}\} = \mathcal{E}\{\cdot\}から

\mathcal{E}\{||x(t) - \hat{x}(t)||^2_M\} = \mathcal{E}\{\mathcal{E}\{||x(t)-\hat{x}(t)||^2_M | \mathcal{Y}_t\}\} \tag{6.4}

が成立するので、推定規範(6.3)を最小にする\hat{x}(t)を求めることは、\mathcal{E}\{||x(t)-\hat{x}(t)||^2_M | \mathcal{Y}_t\}を最小にすることと同じであることがわかります。

そこで、\xi(t) \in R^n\mathcal{Y}_t可測な関数とすれば以下の式(6.5)が成立します。

\begin{aligned} \mathcal{E}\{||x(t)-\hat{x}(t)||^2_M | \mathcal{Y}_t\} &= \mathcal{E}\{||x(t) - \xi(t) + \xi(t) - \hat{x}(t)||^2_M | \mathcal{Y}_t\} \\ &= \mathcal{E}\{||x(t) - \xi(t)||^2_M | \mathcal{Y}_t\} + ||\xi(t) - \hat{x}(t)||^2_M + 2[\xi(t) - \hat{x}(t)]^T M \mathcal{E}\{x(t) = \xi(t) | \mathcal{Y}_t\} \end{aligned}

ここで、右辺第三項については

[\xi(t)-\hat{x}(t)]^T M \mathcal{E}\{x(t)-\xi(t)|\mathcal{Y}_t\} = [\xi(t)-\hat{x}(t)]^T M [\mathcal{E}\{x(t)|\mathcal{Y}_t\} - \xi(t)]

となるので、\xi(t)として

\xi(t) = \mathcal{E}\{x(t) | \mathcal{Y}_t\} \tag{6.6}

と選べば、式(6.5)の第三項は0となります。また、第一項は\hat{x}(t)とは無関係であるので、

\mathcal{E}\{||x(t)-\hat{x}(t)||^2_M\} = \text{const.} + \mathcal{E}\{||\xi(t) - \hat{x}(t)||^2_M\} \tag{6.7}

となります。これより、Mの取り方に依存せず、\hat{x}(t) = \xi(t)の時、式(6.7)は最小となります。\hat{x}(t)を改めて\hat{x}(t|t)とすると

\hat{x}(t|t) = \mathcal{E}\{x(t) | \mathcal{Y}_t\} \tag{6.8}

が最適推定値となります。

最適推定値は、状態量ベクトルx(t)の条件付き期待値であることがわかりました。このx(t|t)は、推定誤差分散||x(t)-\hat{x}(t|t)||^2_Mを最小にすることから、最小分散推定値でもあります。

さらに、\hat{x}(t|t)

\mathcal{E}\{x(t)\} = \mathcal{E}\{\hat{x}(t|t)\} \tag{6.9}

という不偏推定量の性質を持ちます。幾何学的には、\hat{x}(t|t)x(t)の観測データが張る空間\mathcal{Y}_tへの正射影となっています。

推定誤差共分散マトリクス

条件付き共分散マトリクスP(t|t)を以下のように定義すると、

P(t|t) := \mathcal{E}\{[x(t)-\hat{x}(t|t)][x(t)-\hat{x}(t|t)]^T | \mathcal{Y}_t\} \tag{6.10}

以下のような関係が成立し、P(t|t)は推定誤差の程度を表す尺度としてみなすことができます。そこで、これを推定誤差共分散マトリクスと呼びます。

\begin{aligned} \mathcal{E}\{||x(t) - \hat{x}(t)||^2\} &= \mathcal{E}\{\mathcal{E}\{||x(t) - \hat{x}(t|t)||^2\}\} \\ &= \text{tr}\{\mathcal{E}\{P(t|t)\} \end{aligned}

Discussion