はじめに
PRML解答例まとめを参照
演習 9.1
9.1節で議論したK-meansアルゴリズムを考える.離散的な支持変数rnkの状態が有限通りしかないこと,そしてそのような状態の各々について,{μk}のただ1つの最適値があることの帰結としてK-meansアルゴリズムは有限回の繰り返しで収束することを示せ.
※教科書pp.140–142参照。
教科書にあるように、K-meansアルゴリズムはEステップとMステップに分かれている。Eステップではデータ点xnとμkは固定されている。各nについて、rnk=1としたときに∥xn−μk∥2が最小となるようなk (k=1…K)を選んでrnk=1とし、残りを0とする。式で書くと
rnk={10k=argminj∥xn−μj∥2 のとき それ以外. (9.2)
言い換えると、各nについてrnk=1の選び方はK通り存在するので、N個のデータ点について言えば全部でKN通りである。一方で、Eステップの操作によって必ず(9.1)式の歪み尺度(distortion measure)Jは小さくなる(図9.2を参照)。
Mステップについてはrnkを固定した状況下で歪み尺度Jを最小化する。このとき最適なμkは(9.3)式にしたがって解析的に求まる。言い換えれば、前回のMステップからrnkの割り当てが変わっている場合、Mステップでのμkの更新操作で必ずJは低下するが、Eステップでのrnkの割り当てが変わらない場合はMステップでのμkも変化しない。このときK-meansアルゴリズムは収束解を得る。
したがって、すべてのデータ点xnについて最適なクラス割り当てが見つかるまでEステップとMステップが繰り返されるわけだが、これは高々KN回の繰り返しの中で必ず収束することとなる。(※ただし、この収束解は大域的な最適解になるとは限らないことに注意。)
演習 9.2
2.3.5節で述べた Robbins-Monroの逐次的推定法を
J=n=1∑Nk=1∑Krnk∥xn−μk∥2(9.1)
で与えたJのμkによる微分で得られる回帰関数の根を求める問題に適用せよ.また,これから各データ点xnについて,最も近いプロトタイプμkが
μknew =μkold +ηn(xn−μkold )(9.5)
によって更新されるような確率的K-meansアルゴリズムが導かれることを示せ.
∂μk∂J=0となるように、Jに含まれるパラメータrnk,μkを最適化する問題を、データ系列の数Nについて逐次的に解く。
データ点{x1,x2,⋯xN−1}に基づいてパラメータ{rnk,μk}k=1,2,⋯,K,n=1,2,⋯,N−1が最適化されている(つまり、(∂μk∂J)(N−1)=0となっている)とき、データ点xNを追加で入手した時にパラメータ{rnk,μk}k=1,2,⋯,K,n=1,2,⋯,Nを最適化する(つまり、(∂μk∂J)(N)=0とする)ことを考える。
(∂μk∂J)(N)=∂μk∂(n=1∑Nk′=1∑Krnk′∥xn−μk′∥2)=n=1∑Nk′=1∑Krnk′(−2)(xn−μk′)δkk′=−2n=1∑Nrnk(xn−μk)=(∂μk∂J)(N−1)−2rNk(xN−μk)
xNに最も近い{μ1,μ2⋯μK}がμkと異なる場合、EステップにおいてrNk=0とする。この場合、Mステップにおいて{μ1,μ2⋯μK}の値は更新されない。
xNに最も近い{μ1,μ2⋯μK}がμkに一致している場合、EステップにおいてrNk=1とする。この場合、Mステップにおける更新式(上式)は、
(∂μk∂J)(N)=(∂μk∂J)(N−1)−2(xN−μk)
となる。
Robbins-Monroの逐次推定の(2.129)式
θ(N)=θ(N−1)−aN−1z(θ(N−1))
に代入して、
μk(N)=μk(N−1)+2aN−1(xN−μk(N−1))
となる。
2aN−1=ηNと変数を変換すれば、(9.5)式を得る。
演習 9.3
混合ガウスモデルを考え.潜在変数の周辺分布p(z)が
p(z)=k=1∏Kπkzk(9.10)
で,観測変数の条件付き分布
p(x∣z)が
p(x∣z)=k=1∏KN(x∣μk,Σk)zk(9.11)
でそれぞれ与えられると仮定する.
p(z)p(x∣z)を
zの可能な値について足して得られる周辺分布
p(x)が
p(x)=k=1∑KπkN(x∣μk,Σk)(9.7)
の形の混合ガウス分布になることを示せ.
導入に従ってとけばよい。
p(x)=z∑p(z)p(x∣z)=z∑k∏πkzkk∏N(x∣μk,Σk)zk=z∑k∏πkzkN(x∣μk,Σk)zk=z∑k∏(πkN(x∣μk,Σk))zk=k∑πkN(x∣μk,Σk)(∵(9.10),(9.11)))(∵1-of-K)
演習 9.4
潜在変数を持つモデルに関して,データ集合Xを観測した下での事後分布p(θ∣X)を,EMアルゴリスムを用いてθについて最大化する問題を考える.このとき,Eステップは最尤推定問題の場合と同じであるのに対し,Mステップでは,最大化すべき量がQ(θ,θold )+lnp(θ)で与えられることを示せ.ただし,Q(θ,θold )は
Q(θ,θold )=Z∑p(Z∣X,θold )lnp(X,Z∣θ)(9.30)
で定義されている.
ベイズの定理より
p(θ∣X)=p(X)p(X∣θ)p(θ)
である.対数尤度を取って,
lnp(θ∣X)=lnp(X∣θ)+lnp(θ)+const.=lnZ∑p(X,Z∣θ)+lnp(θ)+const.
ここで第一項については教科書の(9.29), (9.30)の議論と同様に対数の中の総和への処理,および潜在変数Zについての事後確率の期待値を考えるといった工夫をすることでQ(θ,θold )を用いて表すことができて,
Q(θ,θold )+lnp(θ)
を最大化すればいいことがわかる。
演習 9.5
図9.6で示すような,混合ガウスモデルの有向グラフを考える.8.2節で議論した有向分離の規準を利用して,潜在変数の事後分布が次式のように各データ点ごとの事後分布の積になることを示せ.
p(Z∣X,μ,Σ,π)=n=1∏Np(zn∣xn,μ,Σ,π)(9.80)
まず、図9.9より、πとμ、μ とΣ、Σとπは、tail-to-tailなので、ZとXが観察された時、遮断されている。すなわち条件付き独立が成り立つ。よって、以下では、XとZについて考えていく。
今、図9.9より、n∈{1,2,⋯N}について、それぞれzn→xnが成り立つ。また、i.i.dデータ集合であることが仮定されているので、p(X)=∏np(xn)である。
以上から、
p(Z∣X,μ,Σ,π)=p(Z∣X)=n∏p(zn∣xn)
が成り立つ。最後に、条件付き独立であるパラメータを加えて、
p(Z∣X,μ,Σ,π)=n=1∏Np(zn∣xn,μ,Σ,π)(9.80)
が導かれる。
演習 9.6
混合ガウスモデルについて,各混合要素の共分散行列Σkすべてが共通の値Σに制限された特別な場合を考える.そのようなモデルにおいて,尤度関数を最大化するEM方程式を導け.
(9.17),(9.18),(9.19),(9.22)にΣk=Σj=Σを代入する。
Nk=n=1∑Nγ(znk)(γ(znk)=∑jπjN(xn∣μj,Σ)πkN(Xn∣μk,Σ))μk=Nk1n=1∑Nγ(znk)xnΣ=Nk1n=1∑Nγ(znk)(xn−μk)(xn−μk)Tπk=NNk
演習 9.7
混合ガウスモデルに関する完全データ対数尤度関数
lnp(X,Z∣μ,Σ,π)=n=1∑Nk=1∑Kznk{lnπk+lnN(xn∣μk,Σk)}(9.36)
を最大化することは,各混合要素について独立に平均と共分散をその混合要素に対応するデータ点集合にあてはめ,かつ混合係数を各グループに属するデータの数の割合に一致させるという結果になることを示せ.
(9.36)をμkで微分すると、
∂μk∂lnp(X,Z∣μ,Σ,π)=n=1∑Nk=1∑K∂μk∂znk{lnπk+lnN(xn∣μk,Σk)}=xn∈Ck∑∂μk∂{lnπk+lnN(xn∣μk,Σk)}=xn∈Ck∑∂μk∂{lnN(xn∣μk,Σk)}
これは、「ガウス分布でクラスタCkに属するデータ点を利用した場合の
パラメータ最適化」と同じである。
πiについては、∑k=1Kπk=1...(A)という制限があるため、ラグランジュの未定乗数法を用いて
L=lnp(X,Z∣μ,Σ,π)+λ(Σkπk−1)...(B)
∂πk∂L=n=1∑Nπkznk+λ=0
両辺にπkをかけてΣkをとると、
k=1∑Kn=1∑Nznk+k=1∑Kλπk=0
制約条件(A),
ΣkΣnznk=Nより、
k=1∑Kn=1∑Nznk+λ=0
N+λ=0,λ=−N(B)
∴πk=N1n=1∑Nznk
演習 9.8
もし負担率γ(znk)を固定した下で,
EZ[lnp(X,Z∣μ,Σ,π)]=n=1∑Nk=1∑Kγ(znk){lnπk+lnN(xn∣μk,Σk)}(9.40)
を
μkについての最大化をしようとすると,
(9.17)で与えられる陽な解が得られることを示せ.
μk=Nk1n∑γ(znk)xn(9.17)
ただし、
Nk=n∑γ(znk)(9/18)
(9.40)式をμkについて微分し、0となるμkを求めれば良い。
dμkdEZ[lnp(X,Z∣μ,Σ,π)]=n∑γ(znk)Σ−1(xn−μk)=0⇒n∑γ(znk)(xn−μk)=0⇒μk=Nk1n∑γ(znk)xn(∵(9.18))
演習 9.9
もし負担率γ(znk)を固定した下で,
EZ[lnp(X,Z∣μ,Σ,π)]=n=1∑Nk=1∑Kγ(znk){lnπk+lnN(xn∣μk,Σk)}(9.40)
を
Σkと
πkについての最大化をしようとすると,
Σk=Nk1n=1∑Nγ(znk)(xn−μk)(xn−μk)T(9.19)
と
πk=NNk(9.22)
で与えられる陽な解が得られることを示せ.
演習(9.8)と同様に最適化したい変数の微分を0として解くことで目的の解を得る.
Σk−1について(9.40)を偏微分する
∂Σk−1∂EZ[lnp(X,Z∣μ,Σ,π)]=∂Σk−1∂n=1∑Nk=1∑Kγ(znk){lnπk+lnN(xn∣μk,Σk)}=∂Σk−1∂n=1∑Nγ(znk)lnN(xn∣μk,Σk)=∂Σk−1∂n=1∑Nγ(znk){−2∣D∣ln2π+21ln∣Σk∣−1−21(xn−μk)TΣk−1(xn−μk)}=∂Σk−1∂n=1∑N21γ(znk){ln∣Σk−1∣−(xn−μk)TΣk−1(xn−μk)}=n=1∑N21γ(znk){ΣkT−(xn−μk)(xn−μk)T}=n=1∑N21γ(znk){Σk−(xn−μk)(xn−μk)T}
∣A−1∣=∣A∣−1,∂A∂ln∣A∣=(A−1)Tを用いた.
これを0として
n=1∑N21γ(znk){Σk−(xn−μk)T(xn−μk)}=0
Σkn=1∑Nγ(znk)=n=1∑Nγ(znk)(xn−μk)T(xn−μk)
Σk=N1n=1∑Nγ(znk)(xn−μk)T(xn−μk)
が得られる.
次にπkについて考える.これは演習(9.7)を応用して考えることができて,znkをγ(znk)で置き換え,同様にラグランジュ未定乗数法を用いて計算することで
πk=N1n=1∑Nγ(znk)=NNk
以上から目的の解が得られた
演習 9.10
p(x)=k=1∑Kπkp(x∣k)(9.81)
の形の混合分布で与えられる密度のモデルを考え,ベクトルxをx=(xa,xb)のように2つの部分に分解すると仮定する.このとき,条件付き密度p(xb∣xa)自体が混合分布であることを示し,混合係数と各混合要素の表式を求めよ.
(9.81)より
p(xa,xb)=k=1∑Kπkp(xa,xb∣k)
であることを用いて、
p(xb∣xa)=p(xa)p(xa,xb)=p(xa)∑k=1Kπkp(xa,xb∣k)=p(xa)∑k=1Kπkp(xb∣xa,k)p(xa∣k)=k=1∑Kλkp(xb∣xa,k)
ただし混合係数は
λk≡p(xa)πkp(xa∣k)=∑k=1Kπkp(xa∣k)πkp(xa∣k)
である。
演習 9.11
9.3.2節においてすべての混合要素の共分散がϵIである混合ガウス分布を考えることで,K-means法とEMアルゴリズムの関係を導いた.ここに,ϵ→0の極限において,このモデルの期待完全データ対数尤度
EZ[lnp(X,Z∣μ,Σ,π)]=n=1∑Nk=1∑Kγ(znk){lnπk+lnN(xn∣μk,Σk)}(9.40)
の最大化が,K-means法の歪み尺度
J=n=1∑Nk=1∑Krnk∥xn−μk∥2(9.1)
の最小化と等価になることを示せ.
式 (9.37) よりπkは常に非負。従って、ϵ→0となるとき、γ(znk)→rnkである (p.160) ことから、式 (9.40) の最大化は
n=1∑Nk=1∑Krnk(−2ϵ1∥xn−μk∥2)
の最大化に等しい。上式に最適化の対象であるμkを含まないscaling factor (−2ϵ) をかけると式 (9.1) に等しくなることから、題意が示される。
演習 9.12
p(x)=k=1∑Kπkp(x∣k)(9.82)
の形の混合分布を考える.ここに,xは離散,連続,その組み合わせのいずれでもよい.p(x∣k)の平均と共分散をそれぞれμkとΣkで表す.混合分布の平均と共分散がそれぞれ
E[x]=k=1∑Kπkμk(9.49)
cov[x]=k=1∑Kπk{Σk+μkμkT}−E[x]E[x]T(9.50)
で与えられることを示せ.
問題設定より、p(x∣k)(の分布の下でのx)の平均と共分散がそれぞれμk, Σkとなるので、上巻pp.19-20, (1.36)の記法にしたがって
Ek[x]=∫xp(x∣k)dx=μk, covk[x]=Σk
と書ける。
E[x]について、期待値の定義から
E[x]=∫xp(x)dx=∫xk=1∑Kπkp(x∣k)dx=k=1∑Kπk∫xp(x∣k)dx=k=1∑Kπkμk
となる。次に共分散cov[x]について、
cov[x]=E[(x−E[x])(x−E[x])T](∵(1.42))=E[xxT−2E[x]E[x]T+E[x]E[x]T]=E[xxT]−E[x]E[x]T=∫xxTk=1∑Kπkp(x∣k)dx−E[x]E[x]T=k=1∑Kπk∫xxTp(x∣k)dx−E[x]E[x]T=k=1∑KπkEk[xxT]−E[x]E[x]T
ここでEk[xxT]について、(1.42)の共分散行列の定義から
Σk=covk[x]=Ek[(x−Ek[x])(x−Ek[x])T]=Ek[(x−μk)(x−μk)T]=Ek[xxT]−μkμkT
であるから、Ek[xxT]=Σk+μkμkTが得られる。以上を代入して、
cov[x]=k=1∑Kπk{Σk+μkμkT}−E[x]E[x]T
となる。
演習 9.13
ベルヌーイ分布の混合は,パラメータを最尤解のときの値に一致させた場合
E[x]=N1n=1∑Nxn≡x(9.83)
を満たすことをEMアルゴリズムの更新式を用いて示せ.さらにこのモデルにおいて,すべての混合要素の平均値をμk=μ (k=1,…,K)と同ーの値になるようにパラメータを初期化すると,混合係数の初期値が何であっても, EMアルゴリズムは一度の繰り返しで収束し,μk=xとなることを示せ.これは,すべての混合要素が同ーになる縮退したケースを表しており,実用上,我々は適切な初期化によってこのような解を避ける努力をする.
\begin{aligned}
p(\mathbf{x}|\boldsymbol{\mu}, \boldsymbol{\pi}) = \sum_{k=1}^K \pi_k p(\mathbf{x}|\boldsymbol{\mu}_k ) \tag{9.47}
\end{aligned}
なので、
\begin{aligned}
\mathbb{E}[\mathbf{x}] &= \sum_{k=1}^K \pi_k \boldsymbol{\mu}_k \\
&= \sum_{k=1}^K \pi_k \overline{\mathbf{x}_k} \\
&= \sum_{k=1}^K \pi_k \frac{1}{N_k} \sum_{n=1}^N \gamma (z_{nk}) \mathbf{x}_n \\
&= \frac{1}{N} \sum_{n=1}^N \sum_{k=1}^K \gamma (z_{nk}) \mathbf{x}_n \\
&= \frac{1}{N} \sum_{n=1}^N \mathbf{x}_n \\
\end{aligned}
となる。ここで、\gamma (z_{nk})は負担率であることから、kについて和をとると1になることを用いた。
次に、後半部分を証明する。今、\boldsymbol{\mu}_{k} = \widehat{\boldsymbol{\mu}}\ (k=1, \ldots, K)と設定された時、Eステップの更新式は(9.56)式で表され、
\begin{aligned}
\gamma (z_{nk})
&= \frac{\pi _k p(\mathbf{x}_n | \boldsymbol{\mu}_k = \widehat{\boldsymbol{\mu}})}{\sum_{j=1}^K \pi _j p(\mathbf{x}_n | \boldsymbol{\mu}_j = \widehat{\boldsymbol{\mu}})} \\
&= \frac{\pi _k }{\sum_{j=1}^K \pi _j} \\
&= \pi_k \left(\because \sum_{j=1}^K \pi _j = 1 \right)
\end{aligned}
となり、nによらない。
Mステップの更新式は(9.59)式で表され、\gamma (z_{nk}) = \pi_{k}を用いると
\begin{aligned}
\boldsymbol{\mu}_k
&= \overline{x_k} \\
&= \frac{1}{N_k} \sum_{n=1}^N \gamma (z_{nk}) \mathbf{x}_n \\
&= \frac{1}{N_k} \pi_k \sum_{n=1}^N \mathbf{x}_n \\
&= \frac{1}{N} \sum_{n=1}^N \mathbf{x}_n \\
\end{aligned}
となり、kによらない。
従って、逐次的に更新式を適用しても2回目以降は値が変化しない。結果として、純粋な(混合分布ではない)ベルヌーイ分布と同じ確率分布しか表現できない。
演習 9.14
p(\mathbf{x} \mid \mathbf{z}, \boldsymbol{\mu})=\prod_{k=1}^{K} p\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}\right)^{z_{k}} \tag{9.52}
と
p(\mathbf{z} \mid \boldsymbol{\pi})=\prod_{k=1}^{K} \pi_{k}^{z_{k}} \tag{9.53}
の積でベルヌーイ分布の潜在変数と観測変数の同時分布を構成しよう.この同時分布を\mathbf{z}について周辺化すると
p(\mathbf{x} \mid \boldsymbol{\mu}, \boldsymbol{\pi})=\sum_{k=1}^{K} \pi_{k} p\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}\right) \tag{9.47}
が得られることを示せ.
乗法定理から
\begin{aligned}
p(\mathbf{x},\mathbf{z},\mid \boldsymbol{\mu},\boldsymbol{\pi})&=p(\mathbf{x} \mid \mathbf{z}, \boldsymbol{\mu})p(\mathbf{z} \mid \boldsymbol{\pi})
\end{aligned}
である.これを\mathbf{z}について周辺化し,(9.52), (9.53)を代入すると
\begin{aligned}
p(\mathbf{x}\mid \boldsymbol{\mu},\boldsymbol{\pi})&=\sum_\mathbf{z} p(\mathbf{x} \mid \mathbf{z}, \boldsymbol{\mu})p(\mathbf{z} \mid \boldsymbol{\pi})\\
&=\sum_{\mathbf{z}}\prod_{k=1}^{K} \pi_{k}^{z_{k}}\prod_{k=1}^{K} p\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}\right)^{z_{k}}\\
&=\sum_{\mathbf{z}}\prod_{k=1}^{K} \pi_{k}^{z_{k}}p\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}\right)^{z_{k}}\\
&=\sum_{k=1}^K \pi_{k}p\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}\right)
\end{aligned}
が得られる.
ここでz_kはone-hot-vectorであるため0か1の値を取る.したがってz_k=0のとき\pi_{k}^{0}p\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}\right)^{0}=1であり,積を考える場合にはz_k=1となる場合に注目すれば良いことがわかる.以上により最後の行の式に変形できる.
演習 9.15
混合ベルヌーイ分布についての期待完全データ対数尤度関数
\mathbb{E}_{\mathbf{Z}}[\ln p(\mathbf{X}, \mathbf{Z} \mid \boldsymbol{\mu}, \boldsymbol{\pi})]=\sum_{n=1}^{N} \sum_{k=1}^{K} \gamma\left(z_{n k}\right)\Biggl\{
\ln \pi_{k} \\ \left.+\sum_{i=1}^{D}\left[x_{n i} \ln \mu_{k i}+\left(1-x_{n i}\right) \ln \left(1-\mu_{k i}\right)\right]\right\} \tag{9.55}
を\boldsymbol{\mu}_kについて最大化すると,Mステップ方程式
\boldsymbol{\mu}_{k}=\overline{\mathbf{x}}_{k} \tag{9.59}
が得られることを示せ.
問題文の通り、\mathbb{E}_{\mathbf{Z}}[\ln p]を\boldsymbol{\mu}_kについて最大化する。このために\mu_{ki}での微分を考える。
\begin{aligned} \frac{\partial}{\partial \mu_{k i}} \mathbb{E}_{\mathbf{Z}}[\ln p]
&=\sum_{n=1}^{N} \gamma\left(z_{n k}\right)\left(\frac{x_{n i}}{\mu_{k i}}-\frac{1-x_{n i}}{1-\mu_{k i}}\right) \\
&=\frac{\sum_{n=1}^{N} \gamma\left(z_{n k}\right) x_{n i}-\sum_{n=1}^{N} \gamma\left(z_{n k}\right) \mu_{k i}}{\mu_{k i}\left(1-\mu_{k i}\right)} \end{aligned}
この式を0とおいて、
\begin{aligned}& \sum_{n=1}^{N} \gamma\left(z_{n k}\right) \mu_{k i}=\sum_{n=1}^{N} \gamma\left(z_{nk}\right) x_{n i} \\
& \mu_{k i}=\frac{\sum_{n=1}^{N} \gamma\left(z_{n k}\right) x_{n i}}{\sum_{n=1}^{N} \gamma\left(z_{n k}\right)}=\frac{1}{N_{k}} \sum_{n=1}^{N} \gamma\left(z_{n k}\right) x_{n i}\hspace{1em}(\because (9.57))\end{aligned}
を得る。これを踏まえると、
\begin{aligned} \frac{\partial \mathbb{E}_{\mathbf{Z}}[\ln p]}{\partial \boldsymbol{\mu}_{k}} &=\left(\frac{\partial \mathbb{E}_{\mathbf{Z}}[\ln p]}{\partial \mu_{k 1}}, \frac{\partial \mathbb{E}_{\mathbf{Z}}[\ln p]}{\partial \mu_{k 2}}, \cdots\right)^{\mathrm{T}} \\
&=\frac{1}{N_{k}}\left(\sum_{n=1}^{N} \gamma \left(z_{n k}\right) x_{n 1}, \sum_{n=1}^{N} \gamma\left(z_{n k}\right) x_{n 2}, \cdots\right)^{\mathrm{T}} \\
&=\frac{1}{N_{k}} \sum_{n=1}^{N} \gamma\left(z_{n k}\right) \mathbf{x}_{n} \\
&=\overline{\mathbf{x}}_{k}
\end{aligned}
したがって、Mステップでは\boldsymbol{\mu}_{k}=\overline{\mathbf{x}}_{k}となる。
演習 9.16
変数混合ベルヌーイ分布についての期待完全データ対数尤度関数
\mathbb{E}_{\mathbf{Z}}[\ln p(\mathbf{X}, \mathbf{Z} \mid \boldsymbol{\mu}, \boldsymbol{\pi})]=\sum_{n=1}^{N} \sum_{k=1}^{K} \gamma\left(z_{n k}\right)\left\{\ln \pi_{k}\right. \\ \left.+\sum_{i=1}^{D}\left[x_{n i} \ln \mu_{k i}+\left(1-x_{n i}\right) \ln \left(1-\mu_{k i}\right)\right]\right\} \tag{9.55}
を,ラグランジュ未定乗数法を用いて混合係数\pi_kの総和を一定に保ちつつ\pi_kについて最大化すると,Mステップ方程式
\pi_{k} = \frac{N_k}{N} \tag{9.60}
が得られることを示せ.
ラグランジュの未定乗数法を用いると
L=\mathbb{E}_{\mathbf{Z}}[\ln p(\mathbf{X}, \mathbf{Z} \mid \boldsymbol{\mu}, \boldsymbol{\pi})]+\lambda\left(\sum_{k=1}^{K} \pi_{k}-1\right)
これを\pi_{k}で微分してゼロとおくと
\frac{\partial L}{\partial \pi_{k}}=\sum_{n=1}^{N} \frac{\gamma\left(z_{n k}\right)}{\pi_{k}}+\lambda=0-①
この式の両辺に\pi_{k}をかけると
\sum_{n=1}^{N} \gamma\left(z_{n k}\right)+\lambda \pi_{k}=0
kについて総和を取れば
\sum_{n=1}^{N} \sum_{k=1}^{K} \gamma\left(z_{n k}\right)+\lambda=0 \Leftrightarrow \lambda=-\sum_{n=1}^{N} \sum_{k=1}^{K} \gamma\left(z_{n k}\right)
これを①に代入すれば
\pi_{k}=\frac{\sum_{n} \gamma\left(z_{n k}\right)}{\sum_{n, k} \gamma\left(z_{n k}\right)}=\frac{N_{k}}{N}
※ (9.57)を使用
演習 9.17
混合ベルヌーイ分布については離散変数\mathbf{x}_nについて0 \leqslant p\left(\mathbf{x}_{n} \mid \boldsymbol{\mu}_{k}\right) \leqslant 1という制約があるために,不完全データ対数尤度関数は上に有界であり,よって尤度関数が発散する特異点が存在しないことを示せ.
不完全データ対数尤度関数\ln p\left(\mathbf{x}_{n} \mid \boldsymbol{\mu}, \boldsymbol{\pi}\right)は、(9.51)で与えられる。
0\leqslant p\left(\mathbf{x}_{n} \mid \boldsymbol{\mu}_{k}\right) \leqslant 1より、
\begin{aligned} \ln p\left(\mathbf{x}_{n} \mid \boldsymbol{\mu}, \boldsymbol{\pi}\right) &=\sum_{n=1}^{N} \ln \left(\sum_{k=1}^{K} \pi_{k} p\left(\mathbf{x}_{n} \mid \boldsymbol{\mu}_{k}\right)\right) ...(9.51)\\ & \leqslant \sum_{n=1}^{N} \ln \left(\sum_{k=1}^{K} \pi_{k}\right) \\ &=\sum_{n=1}^{N} \ln 1=0 \end{aligned}
したがって、対数尤度関数は上に有界であり、発散することはない。つまり、そのような特異点は存在しない。
※ 連続変数である混合ガウス分布のときは発散していた(pp.149-150)との対比
演習 9.18
9.3.3節で論じたように,混合ベルヌーイモデルに事前分布を仮定する.ただし各パラメータベクトル\boldsymbol{\mu}_kの分布ρ(\boldsymbol{\mu}_k\mid a_k, b_k)において,\boldsymbol{\mu}_kの各成分はそれぞれ独立にパラメータa_kとb_kを持つベータ分布
\operatorname{Beta}(\mu \mid a, b)=\frac{\Gamma(a+b)}{\Gamma(a) \Gamma(b)} \mu^{a-1}(1-\mu)^{b-1} \tag{2.13}
に従うものとし,また,p(\boldsymbol{\pi}\mid\boldsymbol{\alpha})はディリクレ分布
\operatorname{Dir}(\mu \mid \alpha)=\frac{\Gamma\left(\alpha_{0}\right)}{\Gamma\left(\alpha_{1}\right) \cdots \Gamma\left(\alpha_{K}\right)} \prod_{k=1}^{K} \mu_{k}^{\alpha_{k}-1} \tag{2.38}
であるとする.このとき,事後分布p(\boldsymbol{\mu},\boldsymbol{\pi}\mid \mathbf{X})を最大化するEMアルゴリズムを導け.
演習9.4より、対数尤度関数ではなく対数事後分布について最大化する場合は、
\begin{aligned}
\mathcal{Q}(\boldsymbol{\theta}, \boldsymbol{\theta}^{\text {old }}) = \mathcal{Q}_l(\boldsymbol{\theta}, \boldsymbol{\theta}^{\text {old }}) + \ln p(\mathbf{\theta})
\end{aligned}
を最大化すれば良い。ただし、ここでは、
\begin{aligned}
p(\theta) = p(\mathbf{\mu}|\mathbf{a, b})p(\mathbf{\pi}|\mathbf{\alpha})
\end{aligned}
であり、\mathcal{Q}_l(\boldsymbol{\theta}, \boldsymbol{\theta}^{\text {old }})は(9.55)式で表される。
今、(2.13)より、
\begin{aligned}
\ln p(\mathbf{\mu}|\mathbf{a, b}) &= \sum_{i=1}^{D} \ln p(\mathbf{\mu}_k|a_i, b_i) \\
&= \sum_{i=1}^{D} \ln \prod_k \mu_{ki}^{a_k-1}(1-\mu_{ki})^{b_k-1} + \mathrm{const.} \\
&= \sum_{i=1}^{D} \sum_{k=1}^{K} \{(a_k -1) \ln \mu_{ki}+(b_k-1)\ln (1-\mu_{ki})\} + \mathrm{const.}
\end{aligned}
そして、同様に、(2.14)より、
\begin{aligned}
\ln p(\mathbf{\pi}|\mathbf{\alpha})
&= \sum_{k=1}^{K} (\alpha_k -1)\ln \pi_k + \mathrm{const.}
\end{aligned}
したがって、
\begin{aligned}
\mathcal{Q}(\boldsymbol{\theta}, \boldsymbol{\theta}^{\text {old }}) = E_{\mathbf{z}}[\ln p] + \sum_{i=1}^{D} \sum_{k=1}^{K} \{(a_k -1) \ln \mu_{ki}+(b_k-1)\ln (1-\mu_{ki})\} + \sum_{k=1}^{K} (\alpha_k -1)\ln \pi_k \tag{9.Ex18.1}
\end{aligned}
を最大化する問題を考えれば良い。よって、\mathcal{Q}を\mu_{ki}について微分を、\pi_kについて未定乗数法を用いて更新式を導出する。
\begin{aligned}
\frac{\partial \mathcal{Q}}{\partial \mu_{ki}} &= \frac{\partial E_{z}[\ln p] }{\partial \mu_{ki}} + \frac{a_i -1}{\mu_{ki}} - \frac{b_i -1 }{1 - \mu_{ki}} \\
&= \sum_n \gamma(z_{nk})\left(\frac{x_{ni}}{\mu_{ki}} -\frac{1-x_{ni}}{1-\mu_{ki}}\right) +\frac{a_i -1}{\mu_{ki}} - \frac{b_i -1 }{1 - \mu_{ki}} &(\because Ex. 9.15)\\
&= \frac{N_k \bar{x}_{ki}+a_i -1 }{\mu_{ki}} - \frac{N_k - N_k \bar{x}_{ki}+b_i -1}{1 - \mu_{ki}} &(\because (9.57), (9.58))
\end{aligned}
よって、整理して
\begin{aligned}
\mu_{ki} = \frac{N_k \bar{x}_{ki}+a_i -1 }{N_k +a_i -1 +b_i -1}
\end{aligned}
次に、\pi_kについて、ラグランジュ未定乗数法を用いて\pi_kを求める。以下の式を考える。
\begin{aligned}
L \propto E_z + \sum_{k=1}^{K} (\alpha_k -1)\ln \pi_k +\lambda \left(\sum_{k=1}^{K} \pi_k -1\right)
\end{aligned}
これを\pi_kについて微分して、
\begin{aligned}
\frac{\partial L}{\partial \pi_k} = \sum_{n=1}^{N} \frac{\gamma(z_{nk})}{\pi_k} + \frac{a_k-1}{\pi_k}+ \lambda = 0 &&(\because Ex. 9.16)
\end{aligned}
そして、両辺に\pi_kを乗じ、kについて和をとると、
\begin{aligned}
\sum_{k=1}^{K} \sum_{n=1}^{N} \gamma(z_{nk}) + \sum_{k=1}^{K}(\alpha_k -1)+ \lambda = 0 &&(\because \sum_k \pi_k = 1)
\end{aligned}
これを整理すると、
\begin{aligned}
\lambda = -N -\alpha_0 + K &&(\because \alpha_0 = \sum_k \alpha_k)
\end{aligned}
これを微分式に代入して整理すると
\begin{aligned}
\pi_k = \frac{\sum_n \gamma(z_{nk})+\alpha_k -1}{-\lambda} = \frac{N_k + \alpha_k -1}{N + \alpha_0 - K} &&(\because (9.57))
\end{aligned}
演習 9.19
\mathbf{x}を,各成分がx_{i j}(i=1, \ldots, D, j=1, \ldots, M)であるD\times M次元のベクトル値の確率変数とする.ただし,x_{ij}の各々は\{0,1\}に値を取り,すべてのIに対し制約条件\sum_{j}x_{ij}=1を満たすものとする.\mathbf{x}の分布は,以下のように,2.2節で議論した(N=1の)多項分布の混合であるとする.
p(\mathbf{x})=\sum_{k=1}^{K} \pi_{k} p\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}\right) \tag{9.84}
ただし
p\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}\right)=\prod_{i=1}^{D} \prod_{j=1}^{M} \mu_{k i j}^{x_{i j}} \tag{9.85}
である.パラメータ\mu_{kij}は,確率p(x_{ij} =1 \mid \boldsymbol{\mu}_k)を表し,0 \leqslant \mu_{kij} \leqslant 1と,各k, iの値について制約条件\sum_{j}\mu_{kij} = 1を満たさなくてはならない.観測データ集合\left\{\mathbf{x}_{n}\right\}(n=1, \ldots, N)が与えられた下で,この分布の混合係数\pi_kと要素のパラメータ\mu_{kij}を最尤推定するEMアルゴリズムの,EステップとMステップの更新式を求めよ.
観測変数\mathbf{x}に対応する潜在変数\mathbf{z}を導入する.このとき観測データセットの条件付き分布は
\begin{aligned}
p(\mathbf{X} \mid\mathbf{Z},\boldsymbol{\mu})&=\prod_{n=1}^N\prod_{k=1}^Kp(\mathbf{x}_n\mid\boldsymbol{\mu}_k)^{z_{nk}}\\
&=\prod_{n=1}^N\prod_{k=1}^K\prod_{i=1}^{D} \prod_{j=1}^{M} \mu_{k i j}^{x_{i j}z_{nk}}
\end{aligned}
と表せ,同様に潜在変数の分布は
p(\mathbf{Z}\mid\pi)=\prod_{n=1}^N\prod_{k=1}^K\pi^{z_{nk}}_k
以上から完全データ尤度関数は
\begin{aligned}
p(\mathbf{X},\mathbf{Z}\mid\boldsymbol{\mu},\pi)&=p(\mathbf{X} \mid\mathbf{Z},\boldsymbol{\mu})p(\mathbf{Z}\mid\pi)\\
&=\prod_{n=1}^N\prod_{k=1}^K\prod_{i=1}^{D} \prod_{j=1}^{M} \mu_{k i j}^{x_{i j}z_{nk}}\prod_{n=1}^N\prod_{k=1}^K\pi^{z_{nk}}_k\\
&=\prod_{n=1}^N\prod_{k=1}^K\prod_{i=1}^{D} \prod_{j=1}^{M} (\pi_k\mu_{k i j}^{x_{i j}})^{z_{nk}}
\end{aligned}
対数をとって添字に注意しながら整理すると
\ln p(\mathbf{X},\mathbf{Z}\mid\boldsymbol{\mu},\pi)=\sum_{n=1}^{N} \sum_{k=1}^{K} z_{n k}\left\{\ln \pi_{k}+\sum_{i=1}^{D} \sum_{j=1}^{M}\mathbf{x}_{nij}\ln\mu_{kij}\right\}
以上のような完全データ対数尤度関数が得られる.
E-stepでは以下の式でp(\mathbf{Z}\mid\pi)によるz_{nk}の期待値計算を行う.
\begin{aligned}
\mathbb{E}[z_{nk}]=\frac{\pi_kp\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}\right)}{\sum_j\pi_jp\left(\mathbf{x} \mid \boldsymbol{\mu}_{j}\right)}=\gamma(z_{nk})
\end{aligned}
M-stepではラグランジュ未定乗数法を用いて各種パラメータの最大化を行う.ラグランジアンが制約条件と係数\lambda_1,\lambda_2を用いて以下のようにかけて
\mathcal{L}=\sum_{n=1}^{N} \sum_{k=1}^{K} \gamma(z_{n k})\left\{\ln \pi_{k}+\sum_{i=1}^{D} \sum_{j=1}^{M}\mathbf{x}_{nij}\ln\mu_{kij}\right\}+\lambda_1(\sum_{k=1}^K\pi_k-1)+\sum_{k=1}^K\sum_{i=1}^D\lambda_{2ki}(\sum_{j=1}^M\mu_{kij}-1)
これを\pi_k,\mu_{kij}について微分しものを0とおいてそれぞれ最大化を行う.
まず\pi_kについて
\begin{aligned}
\frac{\partial\mathcal{L}}{\partial\pi_k}&=\sum_{n=1}^N\frac{\gamma(z_{nk})}{\pi_k}+\lambda_1=0
\end{aligned}
\sum_n\gamma(z_{nk})=N_k,\sum_k\pi_k=1を用いて\lambda_1についてこれを解くと
\frac{N_k}{\pi_k}+\lambda_1=0
よって
が得られる.次に\mu_{kij}について偏微分を0として
\begin{aligned}
\frac{\partial\mathcal{L}}{\partial\mu_{kij}}&=\sum_{n=1}^N\frac{\gamma(z_{nk})\mathbf{x}_{nij}}{\mu_{kij}}+\lambda_{2ki}=0
\end{aligned}
\sum_n\gamma(z_{nk})=N_k,\sum_{j}\mu_{kij}=1を用いて\lambda_{2ki}について解くと
\sum_{n=1}^N\gamma(z_{nk})\mathbf{x}_{nij}+\lambda_{2ki}\mu_{kij}=0
\sum_{n=1}^N\sum_{j=1}^M\gamma(z_{nk})\mathbf{x}_{nij}+\lambda_{2ki}\sum_{j=1}^M\mu_{kij}=0
\begin{aligned}
\lambda_{2ki}=-\sum_{n=1}^N\gamma(z_{nk})\sum_{j=1}^M\mathbf{x}_{nij}=-N_k
\end{aligned}
これを\lambda_{2ki}に代入して式を整理すると
\mu_{kij}=\frac{1}{N_k}\sum_{n=1}^N\gamma(z_{nk})\mathbf{x}_{nij}
となる.
演習 9.20
ベイズ線形回帰モデルについて,期待完全データ対数尤度関数
\begin{aligned} \mathbb{E}[\ln p(\mathbf{t}, \mathbf{w} \mid \alpha, \beta)]=& \frac{M}{2} \ln \left(\frac{\alpha}{2 \pi}\right)-\frac{\alpha}{2} \mathbb{E}\left[\mathbf{w}^{\mathrm{T}} \mathbf{w}\right]+\frac{N}{2} \ln \left(\frac{\beta}{2 \pi}\right) \\ &-\frac{\beta}{2} \sum_{n=1}^{N} \mathbb{E}\left[\left(t_{n}-\mathbf{w}^{\mathrm{T}} \boldsymbol{\phi}_{n}\right)^{2}\right] \end{aligned} \tag{9.62}
の最大化は\alphaに関するMステップの更新式
\alpha=\frac{M}{\mathbb{E}\left[\mathbf{w}^{\mathrm{T}} \mathbf{w}\right]}=\frac{M}{\mathbf{m}_{N}^{\mathrm{T}} \mathbf{m}_{N}+\operatorname{Tr}\left(\mathbf{S}_{N}\right)} \tag{9.63}
を導くことを示せ.
\mathbf{w}の事後分布は(3.49)より以下になる。
p(\mathbf{w} \mid \mathbf{t})=\mathcal{N}\left(\mathbf{w} \mid \mathbf{m}_{N}, \mathbf{S}_{N}\right)(9.62)
\frac{\partial \mathbb{E}}{\partial \alpha}=\frac{M}{2} \frac{1}{\alpha}-\frac{1}{2} \mathbb{E}\left[\mathbf{w}^{\mathrm{T}} \mathbf{w}\right]=0 \\ \therefore \alpha=\frac{M}{\mathbb{E}\left[\mathbf{w}^{\mathrm{T}} \mathbf{w}\right]}
\begin{aligned} \mathbb{E}\left[\mathbf{w}^{\mathrm{T}} \mathbf{w}\right] &=\mathbb{E}\left[\mathbf{w}_{1}^{2}+\mathbf{w}_{2}^{2}+\cdots \cdot\right] \\ &=\mathbb{E}\left[\mathbf{w}_{1}^{2}\right]+\mathbb{E}\left[\mathbf{w}_{2}^{2}\right]+\cdots \cdot \\ &=\operatorname{Tr}\left(\mathbb{E}\left[\mathbf{w} \mathbf{w}^{\mathrm{T}}\right]\right) \quad \because \operatorname{Tr}\left(\mathbb{E}\left[\mathbf{w} \mathbf{w}^{\mathrm{T}}\right]\right)=E\left[\mathbf{w}_{1}^{2}\right]+\cdots \cdot\\ &=\operatorname{Tr}\left(\mathbf{m}_{N} \mathbf{m}_{N}^{\mathrm{T}}+\mathbf{S}_{N}\right)\hspace{1em} \because(2.62) E\left[\mathbf{w} \mathbf{w}^{\mathrm{T}}\right]=\mathbf{m}_{N} \mathbf{m}_{N}^{\mathrm{T}}+\mathbf{S}_{N} \\ &=\mathbf{m}_{N}^{\mathrm{T}} \mathbf{m}_{N}+\operatorname{Tr}\left(\mathbf{S}_{N}\right) \end{aligned}
ゆえに(9.63)が導かれる。
\alpha=\frac{M}{\mathbb{E}\left[\mathbf{\mathbf{w}}^{\mathrm{T}} \mathbf{\mathbf{w}}\right]}=\frac{M}{\mathbf{m}_{N}^{\mathrm{T}} \mathbf{m}_{N}+\operatorname{Tr}\left(\mathbf{S}_{N}\right)}
演習 9.21
ベイズ線形回帰モデルについて,3.5節におけるエビデンスの枠組みを用いて,パラメータ\alphaに関する
\alpha=\frac{M}{\mathbb{E}\left[\mathbf{w}^{\mathrm{T}} \mathbf{w}\right]}=\frac{M}{\mathbf{m}_{N}^{\mathrm{T}} \mathbf{m}_{N}+\operatorname{Tr}\left(\mathbf{S}_{N}\right)} \tag{9.63}
と同様の,パラメータ\betaに関するMステップ更新式を導け.
※教科書P.164より、この目的は第3章のエビデンス近似のEMアルゴリズムを用いた\alpha, \betaの計算法の再定義。
Eステップではパラメータ\alpha, \betaの現在の値に基づく\mathbf{w}の事後分布の計算を行う。(3.49)ですでに\mathbf{w}の事後分布を求めてあるので
p(\mathbf{w} \mid t)=\mathcal{N}\left(\mathbf{w} \mid \mathbf{m}_{N}, \mathbf{S}_{N}\right) \tag{3.49}
Mステップではこの量を\alpha, \betaについて最大化する。完全データ対数尤度
\ln p(\mathbf{t}, \mathbf{w} \mid \alpha, \beta)=\ln p(\mathbf{t} \mid \mathbf{w}, \beta)+\ln p(\mathbf{w} \mid \alpha) \tag{5.61}
\mathbf{w}について期待値を取ると、
\begin{aligned} \mathbb{E}[\ln p(\mathbf{t}, \mathbf{w} \mid \alpha, \beta)]=& \frac{M}{2} \ln \left(\frac{\alpha}{2 \pi}\right)-\frac{\alpha}{2} \mathbb{E}\left[\mathbf{w}^{\mathrm{T}} \mathbf{w}\right]+\frac{N}{2} \ln \left(\frac{\beta}{2 \pi}\right) \\ &-\frac{\beta}{2} \sum_{n=1}^{N} \mathbb{E}\left[\left(t_{n}-\mathbf{w}^{\mathrm{T}} \boldsymbol{\phi}_{n}\right)^{2}\right] \end{aligned} \tag{9.62}
これを\betaで微分して0とおくと
\frac{\partial \mathbb{E}}{\partial \beta}=\frac{N}{2} \frac{1}{\beta}-\frac{1}{2} \sum_{n} \mathbb{E}\left[\left(t_{n}-\mathbf{w}^{\mathrm{T}} \boldsymbol{\phi}_{n}\right)^{2}\right]=0
\begin{aligned}
\mathbb{E}\left[\left(t_{n}-\mathbf{w}^{\mathrm{T}} \boldsymbol{\phi}_{n}\right)^{2}\right]
&=\mathbb{E}\left[t_{n}^{2}-2 t_{n} \mathbf{w}^{\mathrm{T}} \boldsymbol{\phi}_{n}+\boldsymbol{\phi}_{n}^{\mathrm{T}} \mathbf{w} \mathbf{w}^{\mathrm{T}} \boldsymbol{\phi}_{n}\right] \\
&=\mathbb{E}[t_{n}]^{2}-2 t_{n} \mathbb{E}[\mathbf{w}]^{\mathrm{T}} \boldsymbol{\phi}_{n}+\boldsymbol{\phi}_{n}^{\mathrm{T}} \mathbb{E}\left[\mathbf{w}\mathbf{w}^{\mathrm{T}}\right] \boldsymbol{\phi}_{n} \\
&=t_{n}^{2}-2 t_{n} \mathbf{m}_{N}^{\mathrm T} \boldsymbol{\phi}_{n}+\boldsymbol{\phi}_{n}^{\mathrm T}\left(\mathbf{m}_{N} \mathbf{m}_{N}^{\mathrm{T}}+\mathbf{S}_{N}\right) \boldsymbol{\phi}_{n}\qquad \because (2.59),(2.62)\\
&=\left(t_{n}-\mathbf{m}_{N}^{\mathrm{T}} \boldsymbol{\phi}_{n}\right)^{2}+\boldsymbol{\phi}_{n}^{\mathrm{T}} \mathbf{S}_{N} \boldsymbol{\phi}_{n}
\end{aligned}
なので以下となる。
\frac{N}{\beta}-\sum_{n=1}^N\left\{\left(t_{n}-\mathbf{m}_{N}^{\mathrm{T}} \boldsymbol{\phi}_{n}\right)^{2}+\boldsymbol{\phi}_{n}^{\mathrm{T}} \mathbf{S}_{N} \boldsymbol{\phi}_{n}\right\}=0
\begin{aligned}
\frac{1}{\beta} &=\frac{1}{N} \sum_{n=1}^N\left\{\left(t_{n}-\mathbf{m}_{N}^{\mathrm{T}} \boldsymbol{\phi}_{n}\right)^{2}+\boldsymbol{\phi}_{n}^{\mathrm{T}} \mathbf{S}_{N} \boldsymbol{\phi}_{n}\right\} \\
&=\frac{1}{N}\left\{\sum_{n=1}^N\left(t_{n}-\mathbf{m}_{N}^{\mathrm{T}} \boldsymbol{\phi}_{n}\right)^{2}+\operatorname{Tr}\left(\mathbf{\Phi}^{\mathrm{T}} \mathbf{\Phi} \mathbf{S}_{N}\right)\right\}
\end{aligned}
※最後の変形は以下のようになる。N \times Mの計画行列\mathbf{\Phi}\ (3.16)を利用して
\mathbf{\Phi} = \begin{pmatrix} \boldsymbol{\phi}_1^{\mathrm T} \\ \vdots \\ \boldsymbol{\phi}_N^{\mathrm T} \end{pmatrix} \\
\mathbf{\Phi S}_N\mathbf{\Phi}^{\mathrm T} = \begin{pmatrix} \boldsymbol{\phi}_1^{\mathrm T} \\ \vdots \\ \boldsymbol{\phi}_N^{\mathrm T} \end{pmatrix} \mathbf{S}_N \begin{pmatrix} \boldsymbol{\phi}_1 & \ldots \ \boldsymbol{\phi}_N \end{pmatrix} =
\begin{pmatrix} \boldsymbol{\phi}_1^{\mathrm T}\mathbf{S}_N\boldsymbol{\phi}_1 & \cdots & \boldsymbol{\phi}_1^{\mathrm T}\mathbf{S}_N\boldsymbol{\phi}_N \\ \vdots & \ddots & \vdots \\ \boldsymbol{\phi}_N^{\mathrm T}\mathbf{S}_N\boldsymbol{\phi}_1 & \cdots & \boldsymbol{\phi}_N^{\mathrm T}\mathbf{S}_N\boldsymbol{\phi}_N \end{pmatrix}
この結果から、\sum_{n=1}^{N}\boldsymbol{\phi}_n^{\mathrm T}\mathbf{S}_N\boldsymbol{\phi}_n = \operatorname{Tr}\left(\mathbf{\Phi} \mathbf{S}_{N} \mathbf{\Phi}^{\mathrm{T}}\right) = \operatorname{Tr}\left(\mathbf{\Phi}^{\mathrm{T}} \mathbf{\Phi} \mathbf{S}_{N}\right)となることがわかる。
演習 9.22
期待完全データ対数尤度
\mathbb{E}_{\mathbf{w}}[\{\ln p(\mathbf{t} \mid \mathbf{X}, \mathbf{w}, \beta) p(\mathbf{w} \mid \boldsymbol{\alpha})\}] \tag{9.66}
を最大化することで.回帰問題のためのRVM(関連ベクトルマシン)の超パラメータについてのMステップ更新式
\alpha_{i}^{\text {new }} =\frac{1}{m_{i}^{2}+\Sigma_{i i}} \tag{9.67}
\left(\beta^{\text {new }}\right)^{-1} =\frac{\|\mathbf{t}-\Phi \mathbf{m}\|^{2}+\beta^{-1} \sum_{i} \gamma_{i}}{N} \tag{9.68}
を導け.
p(t \mid \mathbf{x}, \mathbf{w}, \beta)=\mathcal{N}\left(t \mid y(\mathbf{x}), \beta^{-1}\right) \tag{7.76}
p(\mathbf{t} \mid \mathbf{X}, \mathbf{w}, \beta)=\prod_{n=1}^{N} p\left(t_{n} \mid \mathbf{x}_{n}, \mathbf{w}, \beta\right) \tag{7.79}
p(\mathbf{w} \mid \boldsymbol{\alpha})=\prod_{i=1}^{M} \mathcal{N}\left(w_{i} \mid 0, \alpha_{i}^{-1}\right) \tag{7.80}
よりまずは対数尤度関数を計算する。
\begin{aligned}
\ln p(\mathbf{t} \mid \mathbf{X}, \mathbf{w}, \beta) p(\mathbf{w} \mid \boldsymbol{\alpha}) &=\ln p(\mathbf{t} \mid \mathbf{X}, \mathbf{w}, \beta)+\ln p(\mathbf{w} \mid \boldsymbol{\alpha}) \\
&=\sum_{n=1}^{N} \ln p\left(t_{n} \mid x_{n}, \mathbf{w}, \beta^{-1}\right)+\sum_{i=1}^{M} \ln \mathcal{N}\left(w_{i} \mid 0, \alpha_{i}^{-1}\right) \\
&=\sum_{n=1}^{N} \ln \mathcal{N}\left(t_{n} \mid \mathbf{w}^{\mathrm T} \boldsymbol{\phi}_{n}, \beta^{-1}\right)+\sum_{i=1}^{M} \ln \mathcal{N}\left(w_{i} \mid 0, \alpha_{i}^{-1}\right) \\
&=\frac{N}{2} \ln \frac{\beta}{2 \pi}-\frac{\beta}{2} \sum_{n=1}^{N}\left(t_{n}-\mathbf{w}^{\mathrm T} \boldsymbol{\phi}_{n}\right)^{2}+\frac{1}{2} \sum_{i=1}^{M} \ln \frac{\alpha_{i}}{2 \pi}-\sum_{i=1}^{M} \frac{\alpha_{i}}{2} w_{i}^{2}
\end{aligned}
Mステップでは、この対数尤度関数の潜在変数\mathbf{w}についての期待値を取る。
期待値を取る\mathbf{w}の事後分布は、
p(\mathbf{w} \mid \mathbf{t}, \mathbf{X}, \boldsymbol{\alpha}, \beta)=\mathcal{N}(\mathbf{w} \mid \mathbf{m}, \mathbf{\Sigma})\tag{7.81}
を利用する。
\mathbb{E}_{\mathbf{w}}[\ln p]=\frac{N}{2} \ln \frac{\beta}{2 \pi}-\frac{\beta}{2} \sum_{n=1}^{N} \mathbb{E}_{\mathbf{w}}\left[\left(t_{n}-\mathbf{w}^{\mathrm T} \boldsymbol{\phi}_{n}\right)^{2}\right]+\frac{1}{2} \sum_{i=1}^{M} \ln \frac{\alpha_{i}}{2 \pi}-\sum_{i=1}^{M} \frac{\alpha_{i}}{2} \mathbb{E}_{\mathbf{w}}\left[w_{i}^{2}\right]
\alpha_{i}に関して微分したものを0とおくと
\frac{1}{2} \cdot \frac{2 \pi}{\alpha_{i}} \cdot \frac{1}{2 \pi}-\frac{1}{2} \mathbb{E}_{\mathbf{w}}\left[w_{i}^{2}\right] =0
\begin{aligned}
\alpha_{i}^{\textrm{new}} &=\frac{1}{\mathbb{E}_{\mathbf{w}}\left[w_{i}^{2}\right]} \\
&=\frac{1}{\mathbb{E}_{\mathbf{w}}\left[\mathbf{ww}^{\mathrm T}\right]_{ii} }\\
\end{aligned}
ここで、\mathbb{E}_{\mathbf{w}}\left[\mathbf{ww}^{\mathrm T}\right]_{ii}は\mathbb{E}_{\mathbf{w}}\left[\mathbf{ww}^{\mathrm T}\right]の行列ii成分を表している。今、(7.81)式から\mathbf{w}は\mathcal{N}(\mathbf{w}\mid \mathbf{m}, \mathbf{\Sigma})から生成されているので(つまり\mathbf{w} \sim \mathcal{N}(\mathbf{w}\mid \mathbf{m}, \mathbf{\Sigma}))、(2.62)の結果から
\mathbb{E}\left[\mathbf{w} \mathbf{w}^{\mathrm T}\right]=\mathbf{m} \mathbf{m}^{\mathrm T}+\mathbf{\Sigma}
これを用いて
\alpha_{i}=\frac{1}{\mathbb{E}_{\mathbf{w}}\left[\mathbf{w} \mathbf{w}^{\mathrm T}\right]_{ii}}=\frac{1}{\left(\mathbf{m m}^{\mathrm T}+\mathbf{\Sigma}\right)_{ii}}=\frac{1}{m_{i}^{2}+\Sigma_{i i}}
同様に\betaを微分したものを0とおくと
\frac{N}{2} \cdot \frac{2 \pi}{\beta} \cdot \frac{1}{2 \pi}-\frac{1}{2} \sum_{n=1}^{N} \mathbb{E}_{\mathbf{w}}\left[\left(t_{n}-\mathbf{w}^{\mathrm T} \boldsymbol{\phi}_{n}\right)^{2}\right]=0
\begin{aligned}\beta^{\textrm{new}} &= \frac{N}{\sum_{n=1}^{N} \mathbb{E}_{\mathbf{w}}\left[\left(t_{n}-\mathbf{w}^{\mathrm T} \boldsymbol{\phi}_{n}\right)^{2}\right]} \\
\left(\beta^{\textrm{new}}\right)^{-1} &=\frac{1}{N}\sum_{n=1}^{N} \mathbb{E}_{\mathbf{w}}\left[\left(t_{n}-\mathbf{w}^{\mathrm T} \boldsymbol{\phi}_{n}\right)^{2}\right] \\
&=\frac{1}{N} \sum_{n=1}^{N}\left\{\left(t_{n}-\mathbf{m}^{\mathrm T} \boldsymbol{\phi}_{N}\right)^{2}+\operatorname{Tr}\left[\boldsymbol{\phi}_{n}^{\mathrm{T}} \mathbf{\Sigma} \boldsymbol{\phi}_{n}\right]\right\} \\
&=\frac{1}{N}\left\{\|\mathbf{t}-\mathbf{\Phi} \mathbf{m}\|^{2}+\operatorname{Tr}\left[\mathbf{\Phi}^{\mathrm T} \mathbf{\Phi} \mathbf{\Sigma}\right]\right\} \end{aligned}
ここで\sum_{n=1}^{N} \mathbb{E}_{\mathbf{w}}\left[\left(t_{n}-\mathbf{w}^{\mathrm T} \boldsymbol{\phi}_{n}\right)^{2}\right]部分については演習9.21と同様に変形した。
以下では\operatorname{Tr}\left[\mathbf{\Phi}^{\mathrm T} \mathbf{\Phi} \mathbf{\Sigma}\right] = \beta^{-1} \sum_{i} \gamma_{i}を示す。RVMでは\mathbf{\Phi} , \mathbf{\Sigma}に関する情報は
\mathbf{\Sigma}=\left(\mathbf{A}+\beta \mathbf{\Phi}^{\mathrm{T}} \mathbf{\Phi}\right)^{-1} \tag{7.83}
で与えられる。この両辺にまず\left(\mathbf{A}+\beta \mathbf{\Phi}^{\mathrm{T}} \mathbf{\Phi}\right)をかけて
\begin{aligned} \left(\mathbf{A}+\beta \mathbf{\Phi}^{\mathrm{T}} \mathbf{\Phi}\right)\mathbf{\Sigma} &= \mathbf{I} \\
\mathbf{\Phi}^{\mathrm{T}} \mathbf{\Phi}\mathbf{\Sigma} &= \beta^{-1}\left(\mathbf{I}-\mathbf{A\Sigma}\right)
\end{aligned}
これを\operatorname{Tr}\left(\mathbf{\Phi} \mathbf{\Sigma} \mathbf{\Phi}^{\mathrm T}\right)=\operatorname{Tr}\left(\mathbf{\Phi}^{\mathrm T} \mathbf{\Phi} \mathbf{\Sigma} \right)に代入すれば
\begin{aligned} \operatorname{Tr}\left(\mathbf{\Phi}^{\mathrm T} \mathbf{\Phi} \mathbf{\Sigma} \right) &=\beta^{-1} \operatorname{Tr}(\mathbf{I}-\mathbf{A\Sigma}) \\
&=\beta^{-1} \sum_{i}\left(1-\alpha_{i} \Sigma_{ii}\right) \\ &=\beta^{-1} \sum_{i} \gamma_{i} \end{aligned}
以上で(9.68)式が導かれた。
演習 9.23
7.2.1節において回帰問題のためのRVMの超パラメータ\boldsymbol{\alpha}と\betaの更新式(7.87)と(7.88)を導くのに周辺尤度を直接最大化した.同様に9.3.4節において,同じ周辺尤度を最大化するのにEMアルゴリズムを用いて更新式
\alpha_{i}^{\textrm{new}} =\frac{1}{m_{i}^{2}+\Sigma_{i i}} \tag{9.67}
\left(\beta^{\textrm{new}}\right)^{-1} =\frac{\|\mathbf{t}-\mathbf{\Phi} \mathbf{m}\|^{2}+\beta^{-1} \sum_{i} \gamma_{i}}{N} \tag{9.68}
を求めた.任意の停留点においてこれら2組の更新式が厳密に等価であることを示せ.
\begin{aligned}
\alpha_{i}^{\textrm{new}} &=\frac{\gamma_{i}}{m_{i}^{2}}\qquad (7.87) \\
\left(\beta^{\mathrm{new}}\right)^{-1} &=\frac{\|\mathbf{t}-\mathbf{\Phi} \mathbf{m}\|^{2}}{N-\sum_{i} \gamma_{i}}\quad (7.88)\\
\end{aligned}
\gamma_{i}=1-\alpha_{i} \Sigma_{i i}\quad (7.89)
この問題では「(7.87)かつ(7.88)」⇔「(9.67)かつ(9.68)」を示せばよい。(7.87)に(7.89)を代入すれば
\begin{aligned}
\alpha_{i}^{\textrm{new}} &=\frac{1-\alpha_{i}^{\textrm{new}} \Sigma_{i i}}{m_{i}^{2}} \\
\Leftrightarrow \alpha_{i}^{\textrm{new}}&=\frac{1}{m_{i}^{2}+\sum_{i i}}\quad (\Leftrightarrow(9.67))
\end{aligned}
βに関しては、逆に導出する。(9.68)において\betaを\beta^{\textrm{new}}に置き換えると
\begin{aligned}
\left(\beta^{\textrm{new}}\right)^{-1}&=\frac{\|\mathbf{t}-\mathbf{\Phi} \mathbf{m}\|^{2}+\left(\beta^{\textrm{new}}\right)^{-1} \sum_{i} \gamma_{i}}{N} \\
\Leftrightarrow\left(\beta^{\textrm{new}}\right)^{-1}&=\frac{\|\mathbf{t}-\mathbf{\Phi} \mathbf{m}\|^{2}}{N-\sum_{i} \gamma_{i}}
\end{aligned}
演習 9.24
\ln p(\mathbf{X} \mid \boldsymbol{\theta})=\mathcal{L}(q, \theta)+\mathrm{KL}(q \| p) \tag{9.70}
を示せ.ただし\mathcal{L}(q, \boldsymbol{\theta})と\mathrm{KL}(q \| p)はそれぞれ
\mathcal{L}(q, \boldsymbol{\theta})=\sum_{\mathbf{Z}} q(\mathbf{Z}) \ln \left\{\frac{p(\mathbf{X}, \mathbf{Z} \mid \boldsymbol{\theta})}{q(\mathbf{Z})}\right\} \tag{9.71}
\mathrm{KL}(q \| p)=-\sum_{\mathbf{Z}} q(\mathbf{Z}) \ln \left\{\frac{p(\mathbf{Z} \mid \mathbf{X}, \boldsymbol{\theta})}{q(\mathbf{Z})}\right\}\tag{9.72}
で定義されている.
乗法定理より、\ln p(\mathbf{X}, \mathbf{Z} \mid \boldsymbol{\theta})=\ln p(\mathbf{Z} \mid \mathbf{X}, \boldsymbol{\theta})+\ln p(\mathbf{X} \mid \boldsymbol{\theta})であるから
\begin{aligned} \mathcal{L}(q, \boldsymbol{\theta}) &=\sum_{\mathbf{Z}} q(\mathbf{Z})\{\ln p(\mathbf{Z} \mid \mathbf{X}, \boldsymbol{\theta})+\ln p(\mathbf{X} \mid \boldsymbol{\theta})-\ln q(\mathbf{Z})\} \\ &=\ln p(\mathbf{X} \mid \boldsymbol{\theta}) \sum_{\mathbf{Z}} q(\mathbf{Z})+\sum_{\mathbf{Z}} q(\mathbf{Z}) \ln \frac{p(\mathbf{Z} \mid \mathbf{X}, \boldsymbol{\theta})}{q(\mathbf{Z})} \\ &=\ln p(\mathbf{X} \mid \boldsymbol{\theta})-\operatorname{KL}(q \| p) \end{aligned}
より、(9.70)が示された。
演習 9.25
対数尤度関数\ln p(\mathbf{X}\mid \boldsymbol{\theta})とその下界
\mathcal{L}(q, \boldsymbol{\theta})=\sum_{\mathbf{Z}} q(\mathbf{Z}) \ln \left\{\frac{p(\mathbf{X}, \mathbf{Z} \mid \boldsymbol{\theta})}{q(\mathbf{Z})}\right\} \tag{9.71}
ただしq(\mathbf{Z}) = p(\mathbf{Z}\mid \mathbf{X}, \boldsymbol{\theta}^{\textrm{old}}) は,点\boldsymbol{\theta} = \boldsymbol{\theta}^{\textrm{old}}において同じ勾配を持つことを示せ.
前提条件である、q(\mathbf{Z})=p\left(\mathbf{Z} \mid \mathbf{X}, \boldsymbol{\theta}^{\text {old }}\right) の場合、
\mathrm{KL}(q \| p)=-\sum_{\mathbf{Z}} q(\mathbf{Z}) \ln \left\{\frac{p(\mathbf{Z} \mid \mathbf{X}, \boldsymbol{\theta})}{q(\mathbf{Z})}\right\} = 0
となっている。また常に\mathrm{KL}(q \| p) \ge 0なので、点\boldsymbol{\theta} = \boldsymbol{\theta}^{\textrm{old}}において
\left.\frac{\partial}{\partial \boldsymbol{\theta}} \mathrm{KL}(q \| p)\right|_{\boldsymbol{\theta}=\boldsymbol{\theta}_{\textrm{old}}} = \mathbf{0}
となる。
\ln p(\mathbf{X} \mid \boldsymbol{\theta})=\mathcal{L}(q, \theta)+\mathrm{KL}(q \| p) \tag{9.70}
式の\boldsymbol{\theta}についての両辺の微分をとり、点\boldsymbol{\theta} = \boldsymbol{\theta}^{\textrm{old}}において右辺の第2項は\mathbf{0}になるので、左辺の微分(勾配)と右辺の第1項の微分(勾配)は同じになる。すなわち、
\left.\frac{\partial}{\partial \boldsymbol{\theta}} \operatorname{ln}p(\mathbf{X} \mid \boldsymbol{\theta})\right|_{\boldsymbol{\theta}=\boldsymbol{\theta}_{\textrm{old}}} = \left.\frac{\partial}{\partial \boldsymbol{\theta}} \mathcal{L}(q, \boldsymbol{\theta})\right|_{\boldsymbol{\theta}=\boldsymbol{\theta}_{\textrm{old}}}
を得る。
演習 9.26
混合ガウス分布について,負担率を1つのデータ点\mathbf{x}_mのみについてしか更新しない逐次型EMアルゴリズムを考える.Mステップの式(9.17)と(9.18)から始めて,混合要素の平均を更新する式
\boldsymbol{\mu}_{k}^{\text {new }}=\boldsymbol{\mu}_{k}^{\text {old }}+\left(\frac{\gamma^{\text {new }}\left(z_{m k}\right)-\gamma^{\text {old }}\left(z_{m k}\right)}{N_{k}^{\text {new }}}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\text {old }}\right) \tag{9.78}
N_{k}^{\text {new }}=N_{k}^{\text {old }}+\gamma^{\text {new }}\left(z_{m k}\right)-\gamma^{\text {old }}\left(z_{m k}\right)\tag{9.79}
を導け.
※P.171の流れの通り、Eステップでn=mとなる1つのデータ点mのみについて\gamma(z_{nk})を更新する。混合分布が指数型分布族の場合は、負担率が十分統計量となるので、n=mについての更新差分だけ考慮すれば良い。
N_{k}=\sum_{n=1}^{N} \gamma\left(z_{n k}\right) \tag{9.18}
より
\begin{aligned}
N_{k}^{\textrm{new}} &=\gamma^{\textrm{old}}\left(z_{1 k}\right)+\gamma^{\textrm{old}}\left(z_{2 k}\right)+\cdots+\gamma^{\textrm{new}}\left(z_{m k}\right)+\cdots+\gamma^{\textrm{old}}\left(z_{N k}\right) \\
&=\sum_{n=1}^{N} \gamma^{\textrm{old}}\left(z_{n k}\right)-\gamma^{\textrm{old}}\left(z_{m k}\right)+\gamma^{\textrm{new}}\left(z_{m k}\right) \\
&=N_{k}^{\textrm{old}}+\gamma^{\textrm{new}}\left(z_{m k}\right)-\gamma^{\textrm{old}}\left(z_{m k}\right)
\end{aligned}
以上から(9.79)が示された。
\mu_{k}=\frac{1}{N_{k}} \sum_{n=1}^{N} \gamma\left(z_{n k}\right) \mathbf{x}_{n} \tag{9.17}
より
\begin{aligned}
\boldsymbol{\mu}_{k}^{\textrm{new}}&=\frac{1}{N_{k}^{\textrm{new}}}\left\{\gamma^{\textrm{old}}\left(z_{1 k}\right) \mathbf{x}_{1}+\gamma^{\textrm{old}}\left(z_{2 k}\right) \mathbf{x}_{2}+\cdots+\gamma^{\textrm{new}}\left(z_{m k}\right) \mathbf{x}_{m}+\cdots+\gamma^{\textrm{old}}\left(z_{N k}\right) \mathbf{x}_{N}\right\}\\
&=\frac{1}{N_{k}^{\textrm{new}}}\left\{\sum_{n=1}^{N} \gamma^{\textrm{old}}\left(z_{n k}\right) \mathbf{x}_{n}-\gamma^{\textrm{old}}\left(z_{m k}\right) \mathbf{x}_{m}+\gamma^{\textrm{new}}\left(z_{m k}\right) \mathbf{x}_{m}\right\}\\
&=\frac{1}{N_{k}^{\textrm{new}}}\left\{N_{k}^{\textrm{old}} \boldsymbol{\mu}_{k}^{\textrm{old}}-\gamma^{\textrm{old}}\left(z_{m k}\right) \mathbf{x}_{m}+\gamma^{\textrm{new}}\left(z_{m k}\right) \mathbf{x}_{m}\right\}\\
&=\frac{1}{N_{k}^{\textrm{new}}}\left[\underbrace{\left\{N_{k}^{\textrm{new}}+\gamma^{\textrm{old}}\left(z_{m k}\right)-\gamma^{\textrm{new}}\left(z_{m k}\right)\right.}_{(\because(9.79))}\} \boldsymbol{\mu}_{k}^{\textrm{old}}-\gamma^{\textrm{old}}\left(z_{m k}\right) \mathbf{x}_{m}+\gamma^{\textrm{new}}\left(z_{m k}\right) \mathbf{x}_{m}\right] \\
&=\frac{1}{N_{k}^{\textrm{new}}}\left[N_{k}^{\textrm{new}} \boldsymbol{\mu}_{k}^{\textrm{old}}-\left\{\gamma^{\textrm{new}}\left(z_{m k}\right)-\gamma^{\textrm{old}}\left(z_{m k}\right)\right\} \boldsymbol{\mu}_{k}^{\textrm{old}}+\left\{\gamma^{\textrm{new}}\left(z_{m k}\right)-\gamma^{\textrm{old}}\left(z_{m k}\right)\right\} \mathbf{x}_{m}\right]\\
&=\boldsymbol{\mu}_{k}^{\textrm{old}}+\frac{1}{N_{k}^{\textrm{new}}}\left\{\gamma^{\textrm{new}}\left(z_{m k}\right)-\gamma^{\textrm{old}}\left(z_{m k}\right)\right\}\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{old}}\right)
\end{aligned}
以上から(9.78)が示された。
演習 9.27
平均の更新式
\boldsymbol{\mu}_{k}^{\text {new }}=\boldsymbol{\mu}_{k}^{\text {old }}+\left(\frac{\gamma^{\text {new }}\left(z_{m k}\right)-\gamma^{\text {old }}\left(z_{m k}\right)}{N_{k}^{\text {new }}}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\text {old }}\right) \tag{9.78}
と同様に,負担率を逐次型で更新する場合の混合ガウス分布の共分散行列と混合係数を更新するMステップの更新式を求めよ.
教科書P.154の混合ガウス分布のためのEMアルゴリズムから、(9.24)-(9.26)を利用して、Mステップでの更新後の混合係数は
\begin{aligned}
\pi^{\textrm{new}} &=\frac{N^{\textrm{new}}}{N}(\because(9.26)) \\ &=\frac{N_{k}^{\text {old}}+\gamma^{\text {new}}\left(z_{m k}\right)-\gamma^{\text {old}}\left(z_{m k}\right)}{N} \\
&=\pi^{\textrm{old}} + \frac{\gamma^{\text {new}}\left(z_{m k}\right)-\gamma^{\text {old}}\left(z_{m k}\right)}{N}
\end{aligned}
となる。
次に更新後の共分散行列は、古い値は(9.19)を利用して
\mathbf{\Sigma}_{k}^{\textrm{old}}=\frac{1}{N_{k}^{\textrm{old}}} \sum_{n=1}^{N} \gamma\left(z_{n k}\right)\left(\mathbf{x}_{n}-\boldsymbol{\mu}_{k}^{\textrm{old}}\right)\left(\mathbf{x}_{n}-\boldsymbol{\mu}_{k}^{\textrm{old}}\right)^{\mathrm{T}}
である。これをn=mについて更新すると
\begin{aligned}\mathbf{\Sigma}_{k}^{\textrm{new}}&=\frac{1}{N_{k}^{\textrm{new}}}\left(\sum_{n \neq m} \gamma^{\textrm{old}}\left(z_{n k}\right)\left(\mathbf{x}_{n}-\boldsymbol{\mu}_{k}^{\textrm{old}}\right)\left(\mathbf{x}_{n}-\boldsymbol{\mu}_{k}^{\textrm{old}}\right)^{\mathrm{T}} +\gamma^{\textrm{new}}\left(z_{m k}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{new}}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{new}}\right)^{\mathrm{T}}\right) \\
&=\frac{1}{N_{k}^{\textrm{new}}}\left(N_{k}^{\textrm{old}} \mathbf{\Sigma}_{k}^{\textrm{old}}-\gamma^{\textrm{old}}\left(z_{m k}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{old}}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{old}}\right)^{\mathrm{T}}+\gamma^{\textrm{new}}\left(z_{m k}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{new}}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{new}}\right)^{\mathrm{T}}\right) \\
&=\mathbf{\Sigma}_{k}^{\mathrm{old}} -\frac{\gamma^{\textrm{old}}\left(z_{m k}\right)}{N_{k}^{\mathrm{new}}}\left(\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{old}}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{old}}\right)^{\mathrm{T}}-\mathbf{\Sigma}_{k}^{\textrm{old}}\right) +\frac{\gamma^{\textrm{new}}\left(z_{m k}\right)}{N_{k}^{\textrm{new}}}\left(\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{new}}\right)\left(\mathbf{x}_{m}-\boldsymbol{\mu}_{k}^{\textrm{new}}\right)^{\mathrm{T}}-\mathbf{\Sigma}_{k}^{\textrm{old}}\right)
\end{aligned}
となる。途中で(9.79)式の変形N_{k}^{\textrm{old}} = N_{k}^{\textrm{new}} - \gamma^{\text {new }}\left(z_{m k}\right)+ \gamma^{\text {old }}\left(z_{m k}\right)を利用して\mathbf{\Sigma}_{k}^{\mathrm{old}}とその更新差分に分解した。
Discussion
演習9.4の解答部分の5行目についてですが、Σの下の記号はkではなくzではないかと思いますが、いかがでしょうか?
長い間返信できておらずすみません。ご指摘ありがとうございました。修正いたしました。
演習9.13の解答部分の下から11行目についてですが、μハットのところは、P(Xn|μハット)ではないかと思いますがいかがでしょうか?
私の思い違いであれば、スルーしてくださいませ。
ありがとうございます。間違えておりましたので、修正いたしました。
演習9.18の解答部分の下から11行目についてですが、分母のNk・xkiはNkではないかと思います。
また、7行目以降のΣzは、iについての和だと思いますので、zではない文字(D等)の方が良いように思います。
修正しました。