https://zenn.dev/inaturam/articles/34d7d3ce828e76
上の記事ではデータ行列の特徴次元に対してパラメータに貢献度を表現させる線形モデルを考えたが、基底関数を使いデータのレコードを1つの値に飛ばすという考えから線形モデルを見ていく。
線形回帰における違いとしては、前者は [xn∈RD]=X∈RN×D,w∈RD によりデータのd次元目の貢献度を推定していたのに対し、後者は [φm(xn)∈R]=Φ∈RN×M,w∈RM に注目し、m番目の基底関数によって飛ばした後の空間の貢献度を推定する。
e.g.
データをそのまま扱う場合の線形回帰: y(x,w)=∑d=1Dwdxd
↑データの特徴次元ごとの重み(パラメータ)が推定される。パラメータだけでなく入力変数xも線形なので、回帰関数は直線になる。
基底関数を使う場合の線形下記: y(x,w)=∑m=1Mwmφm(x)
↑データの特徴次元は関係なくなり、φとwの線形結合によって関数が表される。例えば基底関数に多項式 φm(x)=xm などを選べば、多項式曲線を使った曲線が得られる。
これを応用すると、基底関数そのもので回帰を行うカーネル回帰を考えることができる。
線形回帰
まず、扱うデータとして特徴次元 D を持つ入力変数 xn と、目的変数 tn を設定する。
Xt=[xn∈RD]∈RN×D=x1,1⋮xD,1…⋱…xN,1⋮xN,D=[tn]∈RD
このデータに対して、次の式で表される、パラメータ w∈RM を持つ 線形モデル をfitさせることを考える。
y(x,w)=f(m=1∑Mwmφm(x))=w⊤φ(x)
簡単に記述するため、今は活性化関数 f:R↦R を恒等写像として無視した。また、バイアスパラメータ w1 のために m=1 では特別に基底関数 φm:RD↦R を φ1(x)=1 としてダミー運用し、 φ:RD↦RD を使った内積として書いている。
このパラメータ w をデータから学習してデータに y(x,w) を近似させることが 線形回帰 である。
単純な線形回帰では次の方法でモデルを最適化し、パラメータを求める。
- データが観測できた時に、モデルがどれだけ正しくデータを生成できるかを示す確率(厳密には確率ではない)、 尤度(likelihood) p(t∣X,w) を定義する。
- 尤度を最大化するパラメータを求める(最尤推定)。最大値の条件である ∂w∂p(t∣X,w)=0 より、最適なパラメータ wML が求まる。
最初に尤度を定める。今回、目的変数 t が回帰関数 y にガウスノイズ ε∼N(ε∣0,β−1) を付加したものと考える。そうすると、 t は平均 y 、分散 β−1 の正規分布に従うということになる。
t=y(x,w)+ε∼p(t∣x,w,β)=N(t∣y(x,w),β−1)
データが独立同分布から生成されたと仮定すると、尤度は以下のように書ける。
p(t∣X,w,β)lnp(t∣X,w,β)=n=1∏NN(tn∣y(xn,w),β−1)=n=1∏N2πβ−11e2β−1(tn−w⊤φ(xn))2=2Nlnβ−2Nln2π−:=βE(w)2βn=1∑N(tn−w⊤φ(xn))2
E は二乗和誤差で、最小二乗法でこれを最小化することを考えるのは、尤度最大化から来ている。
尤度の最大値は、尤度(=対数尤度)の勾配が0になる点であるから、以下の条件(正規方程式)を解くことで最尤解である回帰パラメータ wML が求まる。
0⇒0⇒0⇒0⇒wML=∂w∂lnp(t∣X,w,β)∈RM=∂w∂21n=1∑N(tn−w⊤φ(xn))2=n=1∑N(tn−w⊤φ(xn))φ(xn)⊤=n=1∑Ntnφ(xn)⊤−n=1∑Nw⊤φ(xn)φ(xn)⊤=(Φ⊤Φ)−1Φ⊤t
計画行列 Φ は次のようになる。
Φ=φ1(x1)⋮φ1(xN)…⋱…φM(x1)⋮φM(xN)∈RN×M
以上が単純な線形回帰の最尤推定である。この方法は問題があり、データの特徴次元列に相関がある場合など、擬似逆行列 (Φ⊤Φ)−1Φ⊤ の逆行列部分 Φ⊤Φ が非正則に近い場合にパラメータが極端に大きな値になることがある。これは最尤推定の 過学習 の根源であり、逆行列を正則化することで過学習を防止する必要がある。
このために、正則化を含めてモデルを最適化し、パラメータを求める。
- 尤度に加えて、パラメータが従うであろう分布として 事前分布 を設定し、ベイズの定理により 事後分布 を求める。
- 事後分布最大化(MAP推定)により尤度と事前分布の積の最大値を求める。
先述の通り、問題は w が大きな値を取ることであるため、「 w は平均0付近にあってほしい」という信念をを事前分布に与える。
w∼p(w∣α)=N(w∣0,α−1I)=(2πα−1)2M1e2α−1w⊤w
この時、事後分布はベイズの定理より次のように尤度と事前分布の積に比例する。
p(w∣X,t,α,β)=constp(X,t,w,α,β)p(t∣X,w,β)p(w∣α)∝p(t∣X,w,β)p(w∣α)
最尤推定と同様に、尤度の最大値の条件から正規方程式を導くと、 正則化項 2λ∣∣w∣∣2 が現れることがわかる。ただし両辺 β で割って λ=βα で置いた。
0⇒0⇒wMAP=∂w∂lnp(w∣X,t,α,β)=∂w∂(2βn=1∑N(tn−w⊤φ(xn))2+2αw⊤w)=(Φ⊤Φ+λI)−1Φ⊤t
事前分布から得られる正則化項が逆行列部分をフルランクに補強するため、行列計算が安定して極端な値が出にくくなる。
このように、正則化二乗和誤差を最小化する線形回帰を Redge回帰 と言う。
カーネル回帰
双対表現: Redge回帰の問題設定において、回帰パラメータ w を直接扱う代わりに、回帰関数そのものを、データと基底関数の計画行列と目的変数を使って表す方法。回帰関数の全てがカーネルで表されるため、全ての問題をカーネル関数を通じて扱えるようになる。
まず、回帰パラメータについて解き、別の書き方を導入する。
0⇒0⇒w⇒w=∂w∂lnp(w∣X,t,α,β)=∂w∂(21n=1∑N(tn−w⊤φ(xn))2+2λw⊤w)=n=1∑N:=anλ1(tn−w⊤φ(xn))φ(xn)=Φ⊤a
この結果を正則化二乗和誤差 E(w) に代入する。
E(w)⇒E(a)=21n=1∑N(tn−w⊤φ(xn))2+2λw⊤w)=21a⊤KKa−a⊤Kt+21t⊤t+2λa⊤Ka
ただし K=ΦΦ⊤ で、 Ki,j=k(xi,xj) となっている。
これらの結果から a=(K+λI)−1t が導かれ、回帰モデルを書き直すと次のようになる。
y(x)=w⊤φ(x)=a⊤Φφ(x)=k(x1,x)⋮k(xN,x)(K+λI)−1t
この結果から、最小二乗法の解は双対性の概念からカーネル関数 k(x,x′) のみのよって表現できることが示された。
これを用いた回帰として、カーネル関数 k(x,x′) が、2点の距離のみに依存している(動径基底)ものを使った RBFネットワーク がある。RBFネットワークでは基底関数 φ(x) に「与えられたデータ点からの距離」を表す関数を選ぶことで、回帰関数 y(x) をfitする。
まず、データと目的変数の同時分布 p(x,t) と、データ点を中心に置かれる同時分布の密度関数 q(x,t) を用いることで、Parzen(カーネル密度)推定を行う。
p(x,t)=N1n=1∑Nf(x−xn,t−tn)
ここで回帰関数 y(x)=E[t∣x] を調べると、以下のように計算できる。
E[t∣x]=∫tp(t∣x)dt=∫p(x,t)dt∫tp(x,t)dt=∑n′=1N∫q(x−xn′,t−tn′)dt∑n=1N∫tq(x−xn,t−tn)dt↓q(x)=∫q(x,t)dt=n=1∑N:=k(x,x′)∑n′=1Nq(x−xn′)q(x−xn)tn
この時 k(x,x′)=q(x−xn)/∑n′=1Nq(x−xn′) は距離を意味するカーネルになっており、 x と xn が近いほど大きな重みが与えられるため、データ点の周りに大きな密度を持つ予測分布が得られる。
カーネル回帰とその一般形であるガウス過程について、より詳しくは以下の記事で実装と解説をした。
https://zenn.dev/inaturam/articles/9d6f6428c4ce0a
以上の知識を整理すれば、NNの数理について学ぶ準備ができる気がする。
PRMLは素晴らしい本である。
Discussion