1️⃣

統計検定1級程度の事項まとめ

2023/09/29に公開

はじめに

2023年の統計検定1級、統計数理、統計応用(理工学)に両分野最優秀成績賞で合格しました。
対策期間中に用いていたまとめノートを公開しますので、よければ参考にしてください。ただこの試験、あまり内容を暗記することにこだわるより過去問の考え方に慣れることと大学教養レベルの数学的操作を自在に行えるように練習することの方が大切だと思いますのでその点ご留意ください。

注意事項

  • 日本統計学会公式の参考書をもとにしています
  • 公式の証明を一通り理解した後の復習用です(証明は殆ど書いていません)
  • 覚えやすさに重きを置いて雑にまとめています、正確性は保証できません

確率

  • 確率母関数:非負離散Xに対し、G_X(t)=E[t^X]=\sum_x{P(X=x)t^x}
    • P(X=x)=\dfrac{G_X^{(x)}(0)}{x!}
    • E[t^x]のm階微分はE[X(X-1)...(X-m+1)t^{X-m}]
    • G_X^{(m)}(1)=E[X(X-1)...(X-m+1)]、特にG_X^{(1)}(1)=E[X]
  • モーメント母関数:M_X(t)=E[e^{tX}]
    • M_X^{(m)}(0)=E[X^m]
  • 中心モーメント:1次はμ=E[X]、高次はE[(X-μ)^t]
    • 2次中心モーメント:分散
    • 3次中心モーメント:標準偏差の3乗で割ると歪度(正規分布で0)
    • 4次中心モーメント:標準偏差の4乗で割ると尖度(正規分布で3)
  • 確率変換
    X_1,...X_nの分布がgiven、1 \le i \le m \le nY_i=φ_i(X_1,...,X_n)のとき、Y_1,...,Y_mの分布
    1. 逆変換を考えられるよう、Y_{m+1},...,Y_{n}を適当に導入
    2. X_i=ψ_i(Y_1,...,Y_n)となるψ_i(1 \le i \le n)を求める
    3. 1 \le i \le nh_i=ψ_i(y_1,...,y_n)とする
    4. f_{Y_1,...,Y_n}(y_1,...,y_n)dy_1,...,dy_n=f_{X_1,...,X_n}(h_1,...,h_n)dh_1,...,dh_nより、f_{Y_1,...,Y_n}(y_1,...,y_n)=f_{X_1,...,X_n}(h_1,...,h_n)\left|\dfrac{\partial (h_1,...,h_n)}{\partial (y_1,...,y_n)}\right|
    5. f_{Y_1,...,Y_n}(y_1,...,y_n)を周辺化してf_{Y_1,...,Y_m}(y_1,...,y_m)を求める
  • チェビシェフの不等式:εより外にいる確率はεの2乗反比例以下
    • P(|Z-E[Z]| \ge εσ) \le \dfrac{1}{ε^2}
  • 条件付き期待値:E_X[X]=E_Y[E_X[X|Y]]
    • Xの期待値は、各Yに対するXの期待値をYで表した式のYについての期待値
    • Xがパラメタ付き確率分布をもち、このパラメタの分布がYで表されるときに用いる
  • 条件付き分散:V_X[X]=E_Y[V_X[X|Y]]+V_Y[E_X[X|Y]]
    • Xの分散は、各Yに対するXの分散の期待値と期待値の分散の和
    • 「全分散は群内分散の期待値と群間分散の和」

分布

  • 超幾何分布二項分布の有限バージョンN個のうちM個が当たり。n個取り出したときの当たりの数。

    • p=\dfrac{M}{N}とするとE[X]は復元抽出と同じnpV[X]np(1-p)\dfrac{N-n}{N-1}
  • 負の二項分布:ベルヌーイ試行での r回成功するまでの失敗回数 の分布。rが1のとき幾何分布

    • P(X=x)={}_{x+r-1} C_{x}p^rq^x
    • E[X]=r\dfrac{q}{p}V[X]=r\dfrac{q}{p^2}
    • G_X(s;r,p)={ \left\{ \dfrac{p}{1-qs} \right\} }^r
  • ガンマ分布

    • f(x;α,β)=\dfrac{β^α}{Γ(α)}x^{α-1}\mathrm{exp}(-βx)
    • M(t;α,β)=\left(\dfrac{β}{β-t}\right)^α
  • ベータ分布

    • f(x;α,β)=\dfrac{1}{Β(α,β)}x^{α-1}(1-x)^{β-1}
    • Γ(α)Γ(β)=Γ(α+β)Β(α,β)
  • コーシー分布:\left[-\dfrac{π}{2},\dfrac{π}{2}\right]の連続一様分布に従うXY=\mathrm{tan}Xで変換したY

    • f(x)=\dfrac{1}{π(x^2+1)}

推定

  • 十分推定量:密度関数をパラメタ依存と非依存に分けたとき、依存側のxの関数(分解定理)
    • Tが十分統計量⇔f(x;θ)=h(x)g(T(x);θ)P(X=x|T(X)=t,θ)=P(X=x|T(X)=t)
  • ラオブラックウェル推定量:δ(X)θ推定量、Tθ十分推定量のときδ_1(T)=E[δ(X)|T]
    • δ_1(T)θとの平均二乗誤差は、δ(X)θとの平均二乗誤差以下
    • Tは十分よりE[δ(X)|T]θによらないため、計算可能
    • 「十分推定量で条件づけた推定量の期待値は、元の推定量よりよく、かつ計算可能」
  • 尤度関数:パラメタθに対してgivenな実現値xが得られる確率を表すθの関数L(θ)
  • モーメント法真の中心モーメントから真のパラメタを求める式に標本モーメントを代入し推定
    1. μ_i=ψ(θ_1,...,θ_m)の式からθ_i=φ(μ_1,...,μ_m)を求める
    2. \hat{μ}_1=\bar{X}\hat{μ}_i=\dfrac{1}{n}\sum{(X_j-\bar{X})^i}を計算
    3. \hat{θ}_i=φ(\hat{μ}_1,...,\hat{μ}_m)により推定量を得る
  • 有効スコア関数対数尤度\mathrm{log}{L(θ)}θで微分した\mathrm{V}(x,θ)
    • \mathrm{V}(x,\hat{θ})=0
    • E[\mathrm{V}(X,θ)]=0
    • E[g(X)\mathrm{V}(X,θ)]=\dfrac{\partial}{\partial θ}E[g(X)]
  • フィッシャー情報量J_n(θ):対数尤度をθで微分した有効スコア関数の分散
    • J_n(θ)=V[\mathrm{V}(X,θ)]=-E\left[\dfrac{{\partial}^2}{{\partial θ}^2}\mathrm{log}{L(θ)}\right]
  • 不偏推定量:E[\hat{θ}]=θとなる\hat{θ}
    • E[(\hat{θ}-θ)^2]=(E[\hat{θ}]-θ)^2+V[\hat{θ}]=V[\hat{θ}]
    • 一様最小分散不偏推定量:任意のθに対しV[\hat{θ}]が最小となる不偏推定量\hat{θ}
    • 不偏推定量は、非線形変換を行うと不偏性は維持されない{\hat{θ}}^2θ^2の不偏推定量でない)
  • 有効推定量:クメールラオの下限を達成している不偏推定量
    • クメールラオの下限:\displaystyle V[\hat{θ}] \ge \dfrac{1}{J_n(θ)}
    • 「不偏推定量の分散の下限はフィッシャー情報量の逆数」
    • \sqrt{n}でスケーリング:\displaystyle E[\{\sqrt{n}(\hat{θ}_n-θ)\}^2] \ge \dfrac{n}{J_n(θ)} \ge \dfrac{1}{J_1(θ)}
    • 有効推定量は一様最小分散不偏推定量
  • 最尤推定量\hat{θ}^{ML}:尤度関数L(θ)を最大化するθ
    • パラメタ変換の不変性:同じ分布ならパラメタによる表し方が異なっても最尤推定量は同じ
    • 最尤推定量は適当条件下で漸近正規:\displaystyle\sqrt{n}(\hat{θ}^{ML}_n-θ)\overset{\text{d}}{\sim} N\left(0,\dfrac{1}{J_1(θ)}\right)
    • 最尤推定量は適当条件下で漸近有効:\displaystyle \lim_{n \to \infty}{V[\sqrt{n}(\hat{θ}^{ML}_n-θ)]}=\dfrac{1}{J_1(θ)}
    • 「最尤推定量は漸近的に期待値θ、分散フィッシャー情報量の逆数の正規分布に従う」
  • 推定量の相対効率:不偏推定量の分散の逆数の比
    • 不偏推定量でない場合への拡張:二乗誤差期待値の逆数比
  • 一致推定量:標本サイズnの極限で、推定量\hat{θ}_nが真の値θに一致
  • 赤池情報量基準AIC:AICはモデル選択の基準で、負の対数尤度とθの次元数の和の2倍
    • AIC=-2\sum{\mathrm{log}{f(X_i;\hat{θ}^{ML})}}+2dim(θ)が最小のモデルを選択
  • KL情報量:分布の差の程度を表す量で、非対称。
    • \displaystyle KL(f||g)=\int{f(x)\mathrm{log}{\dfrac{f(x)}{g(x)}}}\ge 0
  • デルタ法:漸近分散既知の推定量\hat{θ}_nに対し、g(\hat{θ}_n)の漸近分散を求める方法
    • 定理:真の値θ^{*}として\dfrac{\partial}{\partial θ}g(θ^{*})\neq 0のとき、
      \sqrt{n}(\hat{θ}_n-θ^{*})\overset{\text{d}}{\sim}N(0,σ^2)\Rightarrow \sqrt{n}(g(\hat{θ}_n)-g(θ^{*}))\overset{\text{d}}{\sim}N\left(0,σ^2\left({\dfrac{\partial}{\partial θ}g(θ^{*})}\right)^2\right)
    • 「平均0の漸近正規ならgで変換しても漸近正規であり、分散はgθ^*での微分係数二乗倍」
  • フィッシャーのz変換:相関係数の区間推定法。標本相関係数はz変換すると近似的に正規
    • ζ(r)=\dfrac{1}{2}\mathrm{log}\dfrac{1+r}{1-r}
    • rを標本相関係数、ρを真の相関係数とすると、ζ(r)\sim N\left(ζ(ρ),\dfrac{1}{n-3}\right)

検定

  • 一様最強力検定:有意水準αの検定δ^*の中で、givenな対立仮説の中のどの場合が真の状態であっても他の任意の検定より検出力が大きくなる検定
    • ある特定の対立仮説について検出力最大の時、最強力検定
  • ネイマン-ピアソンの基本定理
    • 定理:H_0:θ=θ_0, H_1:θ=θ_1のとき、実現値xを棄却する確率δ(x)が以下のようになる第一種誤り確率αの検定は、有意水準αの最強力検定
      δ(x)=\begin{cases}1, & \dfrac{f(x;θ_1)}{f(x;θ_0)}>c \\r, & \dfrac{f(x;θ_1)}{f(x;θ_0)}=c \\0, & \dfrac{f(x;θ_1)}{f(x;θ_0)}<c \end{cases}
    • 「帰無仮説と対立仮説の尤度の比で閾値を設けた確率化検定は最強力になる」
    • 求めた検定がθ_1に依存しない場合、一様最強力検定
  • 片側検定の一様最強力検定:H_0:θ \le θ_0, H_1:θ > θ_0とする
    • f(x;θ)T(x)に関し単調尤度比を持つ:任意のθ_1,θ_2\dfrac{f(x;θ_2)}{f(x;θ_1)}=g(T(x);θ_1,θ_2)と書けて、かつg(t;θ_1,θ_2)tに対し単調増加
    • 定理:Xの密度関数f(x;θ)T(x)に関し単調尤度比を持つとき、棄却確率δ(x)が以下のようになる第一種誤り確率αの検定は、有意水準αの一様最強力検定
      δ(x)=\begin{cases}1, & T(x)>c \\r, & T(x)=c \\0, & T(x)<c \end{cases}
    • 「尤度比単調増加になるT(x)の値で閾値を設けた片側検定は一様最強力になる」
  • 不偏検定棄却すべき時の棄却確率が必ず有意水準以上となる検定
    • 対立仮説の中のどの場合が真の状態であっても、棄却確率が有意水準以上となる
    • 一様最強力不偏検定:不偏検定に検定の範囲を限定したときの一様最強力検定
  • 指数型分布:密度関数がf(x;θ)=g(θ)h(x)\mathrm{exp}(η(θ)T(x))となる分布
    • 正準形指数型分布:η(θ)=θとなる分布
  • 両側検定の一様最強力不偏検定:正準形指数型分布に対し、H_0:θ=θ_0, H_1:θ \neq θ_0とする
    • 定理:標本x_1,...x_nに対し、\bar{T}(x)=\dfrac{1}{n}\sum{T(x_i)}とするとき、棄却確率δ(x)が以下のようになる第一種誤り確率αの不偏検定は、有意水準αの一様最強力不偏検定
      δ(x)=\begin{cases}1, & \bar{T}(x)<a,b<\bar{T}(x) \\r_a, & \bar{T}(x)=a \\r_b, & \bar{T}(x)=b \\0, & a\le\bar{T}(x)\le b \end{cases}
    • 「正準形指数型分布のT(x)の標本平均で閾値を設けた両側検定は一様最強力不偏になる」
  • 尤度比検定:帰無仮説H_0に対する対立仮説H_1での上限尤度の比が閾値以上なら棄却
    • 尤度比L=\dfrac{\mathrm{sup}_{H_1} f(x;θ)}{\mathrm{sup}_{H_0} f(x;θ)}として、棄却域L>c。cの値を有意水準αに合わせて正確に決めることは一般には困難
    • H_0のもとで対数尤度比の2倍はH_1H_0の自由度の差pをもつχ二乗分布に近似的に従う
    • H_0のとき2\mathrm{log}L\overset{\text{d}}{\sim}χ^2(p)を用いれば有意水準αの検定を得る
  • ワルド検定:H_0:θ=θ_0, H_1:θ \neq θ_0のときの近似的検定
    • W=(\hat{θ}^{ML}-θ_0)^2J_n(\hat{θ}^{ML})\overset{\text{d}}{\sim}χ^2(1)
    • 最尤推定量をもとにした二乗誤差とフィッシャー情報量の積は自由度1χ二乗分布に従う
  • スコア検定:H_0:θ=θ_0, H_1:θ \neq θ_0のときの近似的検定
    • R=\dfrac{(\mathrm{V}(x,θ_0))^2}{J_n(θ_0)}\overset{\text{d}}{\sim}χ^2(1)
    • スコア関数の二乗をフィッシャー情報量で割ると自由度1χ二乗分布に従う
  • 二項分布の正確な両側検定:ベルヌーイ分布は指数型分布なので、一様最強力不偏検定が可能
    • Y_i \sim B(1,p)、X \sim B(n,p)とする
    • f(y;p)=p^y{(1-p)}^{1-y}=(1-p) \left( {\dfrac{p}{1-p}} \right)^y = (1-p) \mathrm{exp} \left( y \mathrm{log}\left( \dfrac{p}{1-p} \right)\right)
    • θ=\mathrm{log}\left( \dfrac{p}{1-p} \right)とおけば正準形とみなせる。よってT(y)=yより、\bar{T}(x)=\dfrac{x}{n}
    • 結局、Xの値に対し閾値を設けた確率化検定を行うだけ
  • 二項分布のパラメタ同等性の検定:X_1\sim B(n_1,p_1),X_2\sim B(n_2,p_2)、H_0:p_1=p_2=p
    • 帰無仮説の下で正規近似:\dfrac{X_i-n_ip}{n_i} \sim N(0,\dfrac{p(1-p)}{n_i})
    • p \simeq \dfrac{x_1+x_2}{n_1+n_2}を用いて近似し、検定を行う
  • ポアソン検定:X_i \sim Po(λ) (1 \le i \le n)
    • E[X_i]=V[X_i]=λより、\sum_i{X_i} \sim N(nλ,nλ)を用いる(n十分大)
  • ポアソン分布のパラメタ同等性の検定:X_1\sim Po(λ_1),X_2\sim Po(λ_2)、H_0:λ_1=λ_2=λ
    • それぞれの標本平均の平方根の差の絶対値は正規分布に近似的に従う(平方根変換)
    • \bar{x}_i=\dfrac{1}{n_i}\sum_i{x_i}とすると、帰無仮説のもとで近似的に以下が成立する(?)
      \sqrt{x_1}-\sqrt{x_2} \sim N\left( 0,\dfrac{1}{4}\left(\dfrac{1}{n_1}+\dfrac{1}{n_2}\right)\right)
  • 多項分布の検定:各カテゴリに属する確率p_iとし、H_0:p_i=p_i(θ)
    • 帰無仮説のもとでθを最尤推定し、期待度数を\hat{x}_i=np_i(\hat{θ}^{ML})とする。
    • カテゴリをk種類、パラメタθの自由度がhのとき、以下が成り立つ
      W=\sum_i{\dfrac{(x_i-\hat{x}_i)^2}{\hat{x}_i}} \sim χ^2(k-h-1)
    • H_0パラメタを最尤推定、期待度数との誤差二乗を期待度数で割った総和はχ二乗分布に従う

分散分析

水準 観測値 標本平均
A_1
\vdots
A_a
x_{11}, \cdots ,x_{1n_1}
\vdots \quad \ddots \quad\vdots
x_{a1},\cdots,x_{an_a}
\bar{x}_{1.}
\vdots
\bar{x}_{a.}
  • 一元配置分散分析:H_0「各水準の母平均に差がない」を検定
    • 級間変動(各級平均と全平均の二乗誤差):S_A=\sum_i{n_i(\bar{x}_{i.}-\bar{\bar{x}})^2}
    • 残差平方和(各級での偏差二乗の総和):S_e=\sum_i{\sum_j{(x_{ij}-\bar{x}_{i.})^2}}
    • 全変動(各値と全平均の差の二乗和):S_T=\sum_i{\sum_j{(x_{ij}-\bar{\bar{x}})^2}}=S_A+S_eが成立
    • 自由度はφ_T=\sum{n_i}-1,φ_A=a-1,φ_e=φ_T-φ_A
    • H_0のもとでV_A=\dfrac{S_A}{φ_A},V_e=\dfrac{S_e}{φ_e}はχ二乗分布に従う
    • V_Aが大きいときH_0を棄却したいので、F=\dfrac{V_A}{V_e}を用いてF検定
    • H_0のもと、級間変動と残差平方和は自由度で割ればχ^2に従うので、比でF検定」
水準 B_1・・・B_b 平均
A_1
\vdots
A_a
x_{11},\cdots,x_{1b}
\vdots \quad \ddots \quad \vdots
x_{a1},\cdots,x_{ab}
\bar{x}_{1.}
\vdots
\bar{x}_{a.}
平均 \bar{x}_{.1},\cdots,\bar{x}_{.b} \bar{\bar{x}}
  • 二元配置分散分析:A,BそれぞれでH_0「各水準の母平均に差がない」を検定
    • 級間変動:S_A=\sum_i{b(\bar{x}_{i.}-\bar{\bar{x}})^2},S_B=\sum_i{a(\bar{x}_{.j}-\bar{\bar{x}})^2}
    • 残差平方和:S_e=\sum_i{\sum_j{(x_{ij}-\bar{x}_{i.}-\bar{x}_{.j}+\bar{\bar{x}})^2}}
    • 全変動(一元配置と同様):S_T=S_A+S_B+S_e
    • 自由度はφ_T=ab-1,φ_A=a-1,φ_B=b-1,φ_e=φ_T-φ_A-φ_B
    • H_0のもとでV_A=\dfrac{S_A}{φ_A},V_B=\dfrac{S_B}{φ_B},V_e=\dfrac{S_e}{φ_e}はχ二乗分布に従う
    • F_A=\dfrac{V_A}{V_e},F_B=\dfrac{V_B}{V_e}を用いてF検定
    • 「一元配置と同様のF検定を各因子で行う」
水準 B_1\qquad・・・\qquad B_b 平均
A_1
\vdots
A_a
\{ x_{111},\cdots,x_{11r} \},\cdots,\{ x_{1b1},\cdots,x_{1br} \}
\vdots \qquad \qquad \ddots \qquad \qquad \vdots
\{ x_{a11},\cdots,x_{a1r} \},\cdots,\{ x_{ab1},\cdots,x_{abr} \}
\bar{x}_{1..}
\vdots
\bar{x}_{a..}
平均 \bar{x}_{.1.},\quad \qquad \cdots \quad \qquad,\bar{x}_{.b.} \bar{\bar{x}}
  • 繰り返しのある二元配置分散分析:各水準で複数回データを取り、交互作用の有無を分析
    • A間平方和,B間平方和:S_A=\sum_i{br(\bar{x}_{i..}-\bar{\bar{x}})^2},S_B=\sum_j{ar(\bar{x}_{.j.}-\bar{\bar{x}})^2}
    • A×B間平方和:S_{A×B}=\sum_i{\sum_j{r(x_{ij.}-\bar{x}_{i..}-\bar{x}_{.j.}+\bar{\bar{x}})^2}}
    • AB間平方和:S_{AB}=\sum_i{\sum_j{\sum_k{ r(x_{ij.}-\bar{\bar{x}})^2 }}} = S_A + S_B + S_{A×B}
    • 残差平方和:S_e=\sum_i{\sum_j{\sum_k{(x_{ijk}-\bar{x}_{ij.})^2}}}
    • 全変動:S_T=\sum_i{\sum_j{\sum_k{ (x_{ijk}-\bar{\bar{x}})^2 }}}=S_{AB}+S_e
    • 自由度はφ_T=abr-1,φ_{AB}=ab-1,φ_A=a-1,φ_B=b-1φ_e,φ_{A×B}は差分)
    • 帰無仮説のもと、V_A=\dfrac{S_A}{φ_A},V_B=\dfrac{S_B}{φ_B},V_{A×B}=\dfrac{S_{A×B}}{φ_{A×B}},V_e=\dfrac{S_e}{φ_e}はχ二乗分布に従う
    • F_A=\dfrac{V_A}{V_e},F_B=\dfrac{V_B}{V_e},F_{A×B}=\dfrac{V_{A×B}}{V_e}を用いてF検定
    • 「各級間変動を求めた後、S_{A×B}S_{e}を差分で計算し、F検定に持ち込む」
水準 観測値 平均
A_1
\vdots
A_a
(x_{11},y_{11}),\cdots,(x_{1r},y_{1r})
\vdots \qquad \ddots \qquad \vdots
(x_{a1},y_{a1}),\cdots,(x_{ar},y_{ar})
(\bar{x}_{1.},\bar{y}_{1.})
\vdots
(\bar{x}_{a.},\bar{y}_{a.})
  • 共分散分析:カテゴリごとに線形回帰y_{ij}=μ+α_i+β_{i}x_{ij}+ε_{ij}でモデル化
    • H_{01}:各水準の傾きβ_iは全て等しい、H_{02}:各水準の傾きは等しく、切片α_iは全て0
    • 残差平方和S=\sum_i{\sum_j{(y_{ij}-(μ+\hat{α}_{i}+\hat{β}_{i}x_{ij}))^2}}
    • 無仮定のとき:\hat{β}_i=\dfrac{\sum_j{(x_{ij}-\bar{x}_{i.})(y_{ij}-\bar{y}_{i.})}}{\sum_j{(x_{ij}-\bar{x}_{i.})^2}}, μ+\hat{α}=\bar{y}_{i.}-\hat{β}_i\bar{x}_{i.}
    • H_{01}のとき:\hat{β}=\dfrac{\sum_i{\sum_j{(x_{ij}-\bar{x}_{i.})(y_{ij}-\bar{y}_{i.})}}}{\sum_i{\sum_j{(x_{ij}-\bar{x}_{i.})^2}}}, μ+\hat{α}=\bar{y}_{i.}-\hat{β}\bar{x}_{i.}
    • H_{02}のとき:\hat{β}=\dfrac{\sum_i\sum_j{(x_{ij}-\bar{\bar{x}})(y_{ij}-\bar{\bar{y}})}}{\sum_i\sum_j{(y_{ij}-\bar{\bar{y}})^2}}, μ=\bar{y}-\hat{β}\bar{\bar{x}}
    • 各仮定に対し、残差平方和は「x偏差y偏差の積総和をx偏差の二乗総和で割る」
    • 無仮定残差平方和をS_e,傾き一様残差平方和をS_w,共通回帰残差平方和をS_t
    • S_r=S_w-S_e, S_b=S_t-S_w:一様仮定により増加した誤差の評価
    • 自由度はφ_e=ar-2a,φ_w=ar-(a+1),φ_t=ar-2φ_r,φ_bは差分)
    • 帰無仮説H_01,H_02のもと、V_r=\dfrac{S_r}{φ_r},V_e=\dfrac{S_e}{φ_e},V_b=\dfrac{S_b}{φ_b},V_w=\dfrac{S_w}{φ_w}はχ二乗分布に従う
    • F_1=\dfrac{V_r}{V_e},F_2=\dfrac{V_b}{V_w}を用いてF検定
    • 「各仮定の前後で最小残差平方和を求め、誤差増分と仮定前の比でF検定」

分割表

  • 分割表:2次元で各水準に対応する度数をまとめた表
水準 B_1,\quad B_2 合計
A_1
A_2
x_{11},\quad x_{12}
x_{21},\quad x_{22}
T_{1.}
T_{2.}
合計 T_{.1},\quad T_{.2} T
水準 B_1・・・B_b 合計
A_1
\vdots
A_a
x_{11}, \cdots , x_{1b}
\vdots \quad \ddots \quad \vdots
x_{a1}, \cdots, x_{ab}
T_{1.}
\vdots
T_{a.}
合計 T_{.1}, \cdots,T_{.b} T
  • 独立性の検定(χ二乗検定):データが十分多いとき、H_0ABが独立

    • 期待度数:t_{ij}=\dfrac{T_{i.}T_{.j}}{T}
    • H_0において、χ^2=\sum_i{\sum_j{\dfrac{(x_{ij}-t_{ij})^2}{t_{ij}}}}\sim χ^2((a-1)(b-1))
    • 「期待度数との差の二乗を期待度数で割った値の総和を用いてχ二乗検定」
    • 2×2のとき:式変形によりχ^2=\dfrac{T(x_{11}x_{22}-x_{12}x_{21})^2}{T_{1.}T_{2.}T_{.1}T_{.2}}
    • イェーツの補正(2×2):χ^2_0=\dfrac{T\left( \mathrm{max}\left( 0,|x_{11}x_{22}-x_{12}x_{21}|-\dfrac{T}{2}\right) \right)^2}{T_{1.}T_{2.}T_{.1}T_{.2}}
  • 独立性の検定(フィッシャー検定):データが少ないとき、H_0ABが独立

    • 周辺分布を固定したときのある分布\bm{y}=y_{11},...,y_{ab}の観測確率をP'(\bm{y})とする。
    • 2×2のとき(超幾何分布):P'(\bm{y})=\dfrac{ {}_{T_{1.}}{C}_{y_{11}}{}_{T_{2.}}{C}_{y_{21}} }{ {}_{T}{C}_{T_{.1}} }=\dfrac{ T_{1.}!T_{2.}!T_{.1}!T_{.2}! }{ T!y_{11}!y_{12}!y_{21}!y_{22}! }
    • a×bのとき:P'(\bm{y})=\dfrac{ \prod_i{T_{i.}!}\prod_j{T_{.j}!} }{ T!\prod_i{\prod_j{y_{ij}!}} }
    • ある表の観測確率は「周辺階乗の総積を総和階乗と各値階乗総積で割る」
    • 実現分布のP値=「実現分布より極端な分布\bm{y}に対するP'(\bm{y})の総和」
      • 2×2の片側:(t_{11}-x_{11})(x_{11}-y_{11}) \ge 0の表
      • 2×2の両側:期待度数からの乖離|y_{11}y_{22}-y_{12}y_{21}|が実現分布より大きい表
      • a×bの片側:任意の(i,j)で、(t_{ij}-x_{ij})(x_{ij}-y_{ij}) \ge 0の表
      • a×bの両側:片側の2倍
水準 A_1,\quad A_2 合計
A_1
A_2
x_{11},\quad x_{12}
x_{21},\quad x_{22}
T_{1.}
T_{2.}
合計 T_{.1},\quad T_{.2} T
  • 対応のある分割表:縦軸と横軸の水準に対応関係がある分割表、異なる条件で同じ値を調べた度数

  • マクネマー検定:データが十分多いとき、H_0:条件12の違いは結果Aを変化させない

    • x_{ij}:条件1のもとでは水準A_{i}、条件2のもとでは水準A_{j}
    • x_{11}, x_{22}には興味がなく、x_{12}とx_{21}に偏りがあるか検定(偏りがあればH_0棄却)
    • 期待度数t_{12}=t_{21}=\dfrac{x_{12}+x_{21}}{2}
    • χ^2=\dfrac{(x_{12}-t_{12})^2}{t_{12}}+\dfrac{(x_{21}-t_{21})^2}{t_{21}}=\dfrac{(x_{12}-x_{21})^2}{x_{12}+x_{21}}\sim χ^2(1)
    • イェーツの補正:χ^2_0=\dfrac{(max(0,|x_{12}-x_{21}|-1))^2}{x_{12}+x_{21}}\sim χ^2(1)
    • 「非対角成分の偏りの有無を、度数の平均を期待度数としてχ二乗検定」
  • 母比率の検定:データが少ないとき、H_0:条件12の違いは結果Aを変化させない

    • ケース数N=x_{12}+x_{21}がそれぞれに母比率\dfrac{1}{2}で分配されているか検定
    • 「分配の偏りが実現分布より極端な場合の確率の総和」
    • \displaystyle P=\sum_{i=0}^{\mathrm{min}(x_{12},x_{21})}{{}_{N}C_{i} \left( \dfrac{1}{2} \right)^N }
    • 両側検定の場合は上式のP2倍する

回帰分析

  • 線形単回帰:(x_{1},y_{1}),...,(x_{n},y_{n})に対しy_i=α+βx_{i}+ε_{i}
    • S_{xx}=\sum_i{(x_{i}-\bar{x})^2}, S_{xy}=\sum_i{(x_{i}-\bar{x})(y_{i}-\bar{y})}, S_{yy}=\sum_i{(y_{i}-\bar{y})^2}
    • \hat{β}=\dfrac{S_{xy}}{S_{xx}}, \hat{a}=\bar{y}-\hat{β}\bar{x}, \hat{y}_i=\hat{α}+\hat{β}x_i
    • S_e最小化の傾きの推定は、x偏差y偏差の積総和をx偏差二乗和で割る」
    • 「全変動S_{yy}=回帰変動S_R+残差平方和S_e
    • S_e=\sum_i{(y_i-\hat{α}-\hat{β}x_i)^2}=\sum_i{\left((y_i-\bar{y})-\dfrac{S_{xy}}{S_{xx}}(x_i-\bar{x}) \right)^2}=S_{yy}-\dfrac{S^2_{xy}}{S_{xx}}
    • S_{R}=\sum_i{(\hat{y}_i-\bar{y})^2}=\dfrac{S^2_{xy}}{S_{xx}}
    • 決定係数:R^2=\dfrac{S_{R}}{S_{yy}}=ρ^2
    • 「決定係数は全変動に対する回帰変動の割合で、相関係数の二乗に一致」
    • 自由度はφ_{yy}=n-1, φ_{e}=n-2, φ_{R}=1
    • 帰無仮説β=0のもとで、V_R=\dfrac{S_R}{φ_R}, V_e=\dfrac{S_e}{φ_e}はχ二乗分布に従う
    • F=\dfrac{V_R}{V_e}でF検定
    • β=0仮定のもとでの誤差はS_yyより、S_Rβ=0仮定による誤差増分といえる
    • 「仮定の前後で最小残差平方和を求め、誤差増分と仮定前の比でF検定」
  • 線形重回帰:(\bm{x}_{1},y_{1}),...,(\bm{x}_{n},y_{n})に対しy_i=α+β_{1}x_{i1}+,...,β_{p}x_{ip}+ε_{i}
    • \bm{X}=\begin{pmatrix}1 & x_{11}& \cdots& x_{1p} \\1 & x_{21}& \cdots& x_{2p}\\ \vdots & \vdots & \ddots & \vdots \\1 & x_{n1}&\cdots& x_{np} \\ \end{pmatrix} \bm{β}=\begin{pmatrix}α \\β_{1}\\ \vdots \\ β_{p} \\ \end{pmatrix}\bm{y}=\begin{pmatrix}y_{1} \\y_{2}\\ \vdots \\ y_{n} \\ \end{pmatrix}

    • モデル:\bm{y}=\bm{X}\bm{β}+\bm{ε}

    • 推定値:\hat{\bm{y}}=\bm{X}\hat{\bm{β}}

    • 残差平方和S_{e}=\sum_i{(y_i-\bm{x}_i\bm{β})^2}=(\bm{y}-\bm{X}\bm{β})^t(\bm{y}-\bm{X}\bm{β})

    • 最小二乗法:\bm{X}^t\bm{X}\hat{\bm{β}}=\bm{X}^t\bm{y}つまり\hat{\bm{β}}=(\bm{X}^t\bm{X})^{-1}\bm{X}^T\bm{y}

      • E[\hat{\bm{β}}]=E[(\bm{X}^t\bm{X})^{-1}\bm{X}^T\bm{y}]=\bm{β}より線形不偏推定量(LUE)
      • 誤差\bm{ε}が独立同分布のとき、\hat{\bm{β}}は最良線形不変推定量(BLUE)
      • BLUE:V[\~{\bm{β}}]-V[\hat{\bm{β}}]が任意のLUEな\~{\bm{β}}に対し半正定値であるLUE
    • 重相関係数:(y_{1},\hat{y}_{1}),...,(y_{n},\hat{y}_{n})の相関係数

    • 偏相関係数:説明変数X_jと応答変数Yの他の変数の影響を除去した相関係数

      1. X_j以外のX_1,...,X_nからX_j,Yを予測する重回帰を最小二乗法で行う
      2. 1.の結果を用いたx_{ij},y_{i}(1 \le i \le n)の予測値を\hat{x}_{1j},...,\hat{x}_{nj},\hat{y}_1,...,\hat{y}_nとする
      3. (x_{1j}-\hat{x}_{1j},y_{1}-\hat{y}_{1}),...(x_{nj}-\hat{x}_{nj},y_{n}-\hat{y}_{n})の相関係数を求める
      • 「残りの変数から重回帰で予測、予測を差し引いた値同士の相関が偏相関係数」
    • 「全変動S_{yy}=回帰変動S_R+残差平方和S_e(各定義は単回帰と同様)

    • R^2=\dfrac{S_{R}}{S_{yy}}

    • 「決定係数は全変動に対する回帰変動の割合」

    • 自由度はφ_{yy}=n-1, φ_{e}=n-(p+1), φ_{R}=p

    • 帰無仮説β_{1}=...β_{p}=0のもとで線形回帰と同様にF=\dfrac{V_R}{V_e}でF検定

  • 残差分析:残差\hat{e}_{i}=y_{i}-\hat{y}_{i}が独立に同じ正規分布に従うか確かめ、モデルの妥当性を検証
    • 残差プロット:\hat{y}_iを横軸として\hat{ε}_{i}をプロット。規則性があれば正規分布でない
    • Q-Qプロット:仮説が正しければ\dfrac{\hat{ε}_{i}-μ}{ε}\sim N(0,1)よって\dfrac{\hat{ε}_{(i)}-μ}{ε}\simeq φ^{-1}(\dfrac{i}{n+1})
      1. 昇順に並べ替え、順位をiとしてφ^{-1}(\dfrac{i}{n+1})を横軸、\hat{ε}_{(i)}を縦軸にプロット
      2. 正規分布ならばQ-Qプロットは直線上に並ぶ
  • 変数選択:多重共線性やモデルの複雑化を避けるため説明変数を適切に選択
    • ε\sim N(0,σ^2)L=\prod_i{\dfrac{1}{\sqrt{2πσ^2}}\mathrm{exp}\left( {-\dfrac{ε^2_i}{2σ^2} } \right) }=\left( \dfrac{1}{\sqrt{2πσ^2}} \right)^n \mathrm{exp}\left( {-\dfrac{\sum_i{ε^2_i}}{2σ^2} } \right)
    • S_e = \sum_i{ε^2_i},\quad σ^2=\dfrac{1}{n} \sum_i{ε^2_i}=\dfrac{S_e}{n} \quadよって、\mathrm{log}L=-\dfrac{n}{2}\mathrm{log}(\dfrac{2πS_e}{n})-\dfrac{1}{2}
    • AIC=-2\mathrm{log}L-2\mathrm{dim}=n\left(\mathrm{log}\dfrac{2πS_e}{n}+1 \right)+2(p+2)\quad ※σもパラメタ
    • 変数減少法:削除したときにAICが最も小さくする変数を削除、AICが減らなくなれば終了
    • 変数増減法:定数項のみから始め、変数の追加削除のいずれかを行う中でAICが最も小さくなるモデルに変更、AICを減少させる方法がなければ終了
    • 自由度調整済み決定係数R_f=1-\dfrac{\dfrac{S_e}{n-p-1}}{\dfrac{S_{yy}}{n-1}}=1-\dfrac{V_e}{V_{yy}}\quad \left(※R=1-\dfrac{S_e}{S_{yy}}\right)
    • AICの代わりに、自由度調整済み決定係数も変数選択の基準に用いることができる
  • 一般化最小二乗推定:誤差が独立同分布でない、即ち共分散行列が一般正定値行列Ωの場合
    • ある直交行列Qと対角行列Λが存在してΩ=QΛQ^tより、P=Λ^{\frac{1}{2}}Q^tとする
    • \rm{Y}^*=P\rm{Y}, \rm{X}^*=P\rm{X}, \rm{ε}^*=P\rm{ε}とすると\rm{Y}^*=\rm{X}^*β+\rm{ε}^*かつE[\rm{ε}^*]=0,V[\rm{ε}^*]=I
    • \hat{\bm{β}}=({\bm{X}^*}^t\bm{X}^*)^{-1}{\bm{X}^*}^T\bm{y}^*とすると、\hat{\bm{β}}はBLUE

標本調査

  • 無作為抽出:母集団に属する個体が一様かつ独立に抽出される
  • 二段(多段)抽出法:全体からいくつかの地域(市区町村等)を無作為抽出し、抽出されたそれぞれの地域から一定数の個体を抽出する手法。段数が増えるほどコストは下がるが誤差は大きくなる
  • 集落抽出法:母集団を小集団に分割し、幾つかの小集団を抽出、抽出した小集団について全数調査を行う
  • 系統抽出法:通し番号を付けた名簿を用意し、1番目の対象を無作為に選んだあと、2番目以降を等間隔で抽出
  • 層化抽出法:母集団を性質の異なるいくつかの層に分け、各層から必要な数の調査対象を無作為抽出する
  • 層別解析:比較する群のそれぞれを、予め結果に影響しうる(影響を除去したい)属性ごとに分割して分割した同じ層の間で比較を行う
  • 二相抽出法:層別解析を行いたいが母集団の事前情報がない場合の手法。第一相では母集団から標本を抽出して情報を取得し、第二相でその情報をもとに層別解析を行う

実験計画法

  • フィッシャーの3原則
    • 局所管理:実験をいくつかの層に分け、層の中では条件が均一になるようにする
    • 無作為化:制御できない条件を偶然誤差に転化するため、順序、位置等を無作為に決める
    • 繰り返し:実験誤差の評価等のため、同一条件の実験を2回以上繰り返す
  • 乱塊法:フィッシャーの3原則をすべて満たす比較実験手法
    • 実験全体を無作為化せず、実験に影響を与えうる条件(ブロック因子B、例:実験日)でブロック化を行う
    • 各ブロック内で比較したい因子Aの各水準を無作為な順序で行う
    • 同一のブロック内では可能な限り実験条件が均一になるようにする
    • A,Bの各組に対する結果を表の形にまとめることで二元配置分散分析が行える
    • 「ブロック因子で実験をブロック化し、比較したい因子とブロック因子で二元配置」
  • L_8直交表:下図の2水準を持つ因子が複数存在するときに対する直交表
    • 因子が7個以下の時、8回の実験で主効果同士が交絡しないようにできる
    • 下図の覚え方:第1(=001_{(2)})列,第2(=010_{(2)})列,第4(=100_{(2)})列が基本形で、他の列は二進数において1が立つ位置に対応する列の積となっている
1 \quad\quad 2 \quad\quad 3\quad\quad 4\quad\quad 5\quad\quad 6\quad\quad 7
1 +1 \quad +1 \quad +1 \quad +1 \quad +1 \quad +1 \quad +1
2 +1 \quad +1 \quad +1 \quad -1 \quad -1 \quad -1 \quad -1
3 +1 \quad -1 \quad -1 \quad +1 \quad +1 \quad -1 \quad -1
4 +1 \quad -1 \quad -1 \quad -1 \quad -1 \quad +1 \quad +1
5 -1 \quad +1 \quad -1 \quad +1 \quad -1 \quad +1 \quad -1
6 -1 \quad +1 \quad -1 \quad -1 \quad +1 \quad -1 \quad +1
7 -1 \quad -1 \quad +1 \quad +1 \quad -1 \quad -1 \quad +1
8 -1 \quad -1 \quad +1 \quad -1 \quad +1 \quad +1 \quad -1
  • 直交表実験:一部実施要因計画において、主効果同士が交絡しないように実験を行う手法
    • 主効果:交互作用ではない、1つの要因に絞った効果(二乗の項なども含める)
    • 完全実施要因計画:各要因全ての水準の組み合わせで1回以上実験↔一部実施要因計画
    • 直交表の各列に因子を割り当て、各回の実験は各行に対応。実験順序は無作為化する
    • 例:2水準4因子の時:L_8直交表を利用
      • Y_{ijkl}=μ+A_i+B_j+C_k+D_l+ε_{ijkl}, \sum{A_i}=\sum{B_j}=\sum{C_k}=\sum{D_l}=0
      • A,B,C,Dをそれぞれ異なる列に割り付ける
      • A_i, B_j, C_k, D_lは実験結果として得る8つのY_{ijkl}の線形結合で表せる
      • 交互作用A×Bを加えるとき:\sum_i{(AB)_{ij}}=\sum_j{(AB)_{ij}}=0
      • 要因A×Bは、「要因A,Bの列番号の桁ごとxor」の列に割り当てれば他と交絡しない
    • 完全交絡:因子の動きが完全に重なって全く区別できない状態↔部分交絡
    • 交絡法:高次の交互作用の小さな部分交絡を許し、実験回数を抑えつつ因子の数を増やす
    • 中心複合計画:一次項だけでなく二次項の推定も行う実験計画、中心点での繰り返しあり

多変量解析

  • 主成分分析:高次元データを分散が最大になるように低次元空間に線形射影する
    • n個のp次元データ\bm{x}_1,...\bm{x}_n\bm{w}^T\bm{w}=1の縦ベクトル\bm{w}1次元空間に圧縮するとき、Xの分散共分散行列をVとした、圧縮後の標本分散uを最小化
    • \bm{μ}=\dfrac{1}{n}\sum_i{\bm{x}_i}, \quad V=\dfrac{1}{n}\left(\begin{matrix}\bm{x}_1-\bm{μ}, \cdots , \bm{x}_n-\bm{μ} \end{matrix} \right) \left(\begin{matrix}\bm{x}_1^T-\bm{μ}^T \\ \vdots \\ \bm{x}_n^T-\bm{μ}^T \end{matrix} \right)
    • u=\sum_i{(\bm{w}^T(\bm{x}_i-\bm{μ}))^2}=\bm{w}^TV\bm{w}
    • \bm{w}^T\bm{w}=1のもとで\bm{w}^TV\bm{w}の最大値はVの最大固有値λ_1(wは固有ベクトルのとき)
    • 「第k主成分はVk番目に大きい固有値に対応する固有ベクトル、その標本分散は固有値」
    • 主成分得点:w_i^Tx_i\quad主成分負荷量(因子負荷量):\sqrt{λ_i}w_i
    • 「主成分負荷量の第k成分は、主成分得点と元の変数の第k成分の共分散」
    • 寄与率:\dfrac{λ_k}{λ_1+...λ_p}\quad累積寄与率:\dfrac{λ_1+...λ_k}{λ_1+...λ_p}
    • 「累積寄与率はk$番目までの主成分によるデータ変動の反映程度の指標」
  • 因子分析:p次元変数Xの振る舞いを、より少数の共通因子の線形和で表現するモデルを導く
    • \bm{X}=\left(\begin{matrix}X_1 \\ \vdots \\X_p \end{matrix} \right), \quad \bm{μ}=E[\bm{X}],\quad 独自因子\bm{U}=\left(\begin{matrix}U_{1} \\ \vdots \\U_{p} \end{matrix} \right)
    • 因子負荷量Λ=\left(\begin{matrix}λ_{11} ,\cdots, λ_{1k} \\ \vdots \quad \ddots \quad \vdots \\λ_{p1},\cdots,λ_{pk} \end{matrix} \right),\quad共通因子\bm{F}=\left(\begin{matrix}F_{1} \\ \vdots \\F_{k} \end{matrix} \right)
    • モデル:\bm{X}=\bm{μ}+Λ\bm{F}+\bm{U},\quad E[\bm{U}]=E[\bm{F}]=\bm{0},\quad V[\bm{U}]=D, V[\bm{F}]=φ
    • 仮定:独自因子と共通因子は無相関, E[UF^T]=0
    • Dは対角行列、φは正定値。共通因子間に相関がないとき直交モデル↔斜交モデル
    • \bm{X}の共分散行列Σ=E[(\bm{X}-\bm{μ})(\bm{X}-\bm{μ})^T]=ΛΛ^T+D
    • 標本共分散行列S=\dfrac{1}{n-1}\sum_i{(\bm{x}_i-\bar{\bm{x}})(\bm{x}_i-\bar{\bm{x}})^T}
    • 不一致度(成分差平方和)d(S,Σ)=\sum_r{\sum_{r'}{(s_{rr'}-σ_{rr'})^2}}=tr{(S-Σ)(S-Σ)^T}
    • 回転不定性:Λ^*=ΛT, F^*=T^{-1}Fとすると、Λ^*,F^*はモデルを満たす
    • 「各因子無相関を仮定、モデルの共分散行列と標本共分散の成分差平方和最小化」
    • 「直交モデルでまずパラメタ推定を行い、その後解釈のため適当な基準で回転」
    • Tが直交行列のとき:直交回転、直交モデル性は維持される↔斜交回転
    • バリマックス回転:直交回転の一種、因子負荷量λ_{ij}の二乗の分散を最大化
    • プロマックス回転:斜光回転の代表的手法
  • 判別分析:2つの群に分かれた2次元データ等を判別するための最適な射影と基準を考える
    • 1(x_{11}^{(1)},x_{12}^{(1)}),...,(x_{n_11}^{(1)},x_{n_12}^{(1)})\quad2(x_{11}^{(2)},x_{12}^{(2)}),...,(x_{n_21}^{(2)},x_{n_22}^{(2)})
    • Y=β_1X_1+β_2X_2と変換するとき、Yの相関比を最小化するβ_1,β_2を求める」
    • 相関比η^2:Yの総偏差平方和S_Tに対する群間偏差平方和S_Bの比\dfrac{S_B}{S_T}
    • S_T=\sum_k{\sum_i{(y_i^{(k)}-\bar{y})^2}},\quadS_B=\sum_k{n_k(\bar{y}^{(k)}-\bar{y})^2}
    • 群内偏差平方和:S_W=\sum_k{\sum_i{(y_i^{(k)}-\bar{y}^{(k)})^2} }
    • S_T=S_B+S_Wよりη^2=\dfrac{1}{1+\dfrac{S_W}{S_B}}
    • 合併した分散共分散:s_{jj'}=\dfrac{1}{n_1+n_2-2}\sum_k{ \sum_i{(x_{ij}^{(k)}-\bar{x}_{.j}^{(k)})(x_{ij'}^{(k)}-\bar{x}_{.j'}^{(k)})} }
    • η^2最大化(定数倍自由):\left(\begin{matrix}β_{1} \\β_{2}\end{matrix} \right)=\left(\begin{matrix}s_{11} & s_{12} \\s_{21} & s_{22}\end{matrix} \right)^{-1}\left(\begin{matrix}\bar{x}_{.1}^{(1)}-\bar{x}_{.1}^{(2)}\\\bar{x}_{.2}^{(1)}-\bar{x}_{.2}^{(2)}\end{matrix} \right)
    • 「合併共分散行列の逆行列に、各次元での群平均差を並べた縦ベクトルを掛ければ最適」
    • 1と群2Y上分布は正規分布に従うと仮定し密度関数φ_1,φ_2を求める
    • 母集団内の群1,2の比率をπ_1,π_2とする
    • π_1φ_1(c)=π_2φ_2(c)となるcを判別基準とする
    • 「判別基準は母集団内比率で重みづけた密度関数の値が等しくなる点」
  • クラスター分析:各個体の群への分類をラベルなしに行う手法
    • p次元データ:X_i=(x_{i1},...,x_{ip}) \quad (1 \le i \le n)
    • ミンコフスキー距離:d_{ii'}=\left( \sum_j{|x_{ij}-x_{i'j}|^{ν} }\right)^{\frac{1}{ν}}
    • 階層的クラスター分析:各個体を1つのクラスタとし、距離が近いクラスタ同士を融合
      • 個体間の距離はユークリッド距離二乗など適当な距離関数で初期化する
      • ウォード法:融合時のクラスタ間の距離の更新方法の一種。qrを融合しsとするときd_{st}=\dfrac{1}{n_s+n_t}((n_q+n_t)d_{qt}+(n_r+n_t)d_{rt}-n_td_{qr})
      • 最短距離法:d_{st}=\mathrm{min}(d_{qt},d_{rt})
      • デンドログラム:各個体が融合される様子を樹形図にまとめたもの
      • どの段階で融合を止めて結果とするかに絶対的基準はない、デンドログラム等で判断
    • 非階層的クラスター分析:k-平均法のような階層性のないクラスタリング法
      • k-平均法:クラスタの代表点更新とデータの割り付けを収束するまで反復
        1. k個のp次元ベクトルμ^{(1)},...,μ^{(k)}を各クラスタの初期代表点とする
        2. 各個体x_{i1},...x_{ip}を最も近い代表点に対応するクラスタに割り当てる
        3. 各クラスタの平均を新たなクラスタの代表点とし、変化があれば2.に戻る
  • ロジスティック回帰分析:被説明変数Y012値であるときの回帰分析
    • \bm{x}=(x_1,...,x_p)に対して、Y=1の確率q(\bm{x};\bm{β})=\dfrac{1}{1+e^{-(β_0+β_1x_1+...+β_px_p)}}
    • 尤度:L=\prod_i{q(\bm{x}_i,\bm{β})^{y_i}(1-q(\bm{x}_i,\bm{β}))^{(1-y_i)}}
    • 尤度最大の\bm{β}は解析的に求まらないため、数値解析近似を行う

品質管理

※統計応用「理工学」の専門範囲の内容です

  • 品質管理:製品の品質特性や作業者の作業内容が定められた基準や規格に沿うよう管理、保証
  • TQM(総合品質管理):生産から販売に至るすべての過程で総合的に品質を管理
  • PDCA管理サイクル:計画(Plan)、実施(Do)、確認(Check)、対策(Action)の反復で品質を管理
  • 管理図:製品の何らかの物理量を測定し、予め得ていた平均等からの逸脱の程度を管理する図
    • 例:平均を中心とし範囲から逸脱すれば異常が存在すると判定する
  • 保全性:所定の条件で修理や交換等の保守作業を行うことで、機能や状態が維持される性質
  • 可用性:システムがサービス提供不能等に陥らずに継続して稼働できる能力
  • 信頼性:一定条件下で安定して機能を提供し続けられる能力
    • 時刻tの瞬間故障確率:f(t)
    • 時刻tまでに故障する確率(寿命がtの確率):\displaystyle F(t)=\int_0^t{f(τ)dτ}
    • 平均故障間隔:MTBF=E[F(t)]\quad※修理できない製品ではMTBF(平均故障時間)
    • 時刻tまでに故障しない確率(信頼性の指標)R(t)=1-F(t)
    • 平均復旧時間MTTR(保全性の指標):故障してから復旧するまでの時間の期待値
    • 稼働率(可用性の指標)\dfrac{MTBF}{MTBF+MTTR}
  • 工程能力指数:ある工程の工程能力を評価する指標
    • 母集団を正規分布と仮定し、上側規格値USL、下側規格値LSLとする
    • 特性値の目標値T、母平均の推定値\hat{μ}、母標準偏差の推定値\hat{σ}とする
    • \hat{C}_p=\dfrac{USL-LSL}{6\hat{σ}},\quad\hat{C}_{pk}=\mathrm{min}(\dfrac{\hat{μ}-LSL}{3\hat{σ}},\dfrac{USL-\hat{μ}}{3\hat{σ}})
    • \hat{C}_{pm}=\dfrac{\hat{C}_p}{\sqrt{1+\dfrac{(\hat{μ}-T)^2}{\hat{σ}^2}}},\quad\hat{C}_{pmk}=\dfrac{\hat{C}_{pk}}{\sqrt{1+\dfrac{(\hat{μ}-T)^2}{\hat{σ}^2}}}

線形推測

※統計応用「理工学」の専門範囲の内容です

  • 正則化:線形回帰において、結果の安定化のためパラメータ\bm{β}の複雑さにペナルティ

    • リッジ:βL_2ノルムをペナルティとする。逆行列部分が正則になる\bm{β}_{ridge}=\mathrm{argmin}\left\{ \sum_i{(y_i-\bm{x}_i^T\bm{β})}+λ\sum_j{β_j^2} \right\}, \quad\bm{β}_{ridge}=(\bm{X}^T\bm{X}+λI)^{-1}\bm{X}^T\bm{y}
    • ラッソ:βL_1ノルムをペナルティとする。疎な解を得やすく次元縮小に有効
      \bm{β}_{lasso}=\mathrm{argmin}\left\{ \sum_i{(y_i-\bm{x}_i^T\bm{β})}+λ\sum_j{|β_j|} \right\},\quad形式的解は得られない
    • エラスティックネット:リッジとラッソの線形結合
      \bm{β}_{ridge}=\mathrm{argmin}\left\{ \sum_i{(y_i-\bm{x}_i^T\bm{β})}+λ\left\{ α\sum_j{β_j^2}+(1-α)\sum_j{|β_j|} \right\} \right\}
  • 次元縮小:用いる変数の数をp_1からp_0に減らしても良いかをF検定

    • RSS_i:p_i次元での残差平方和
    • p_1-p_0個のパラメタを0とする仮定を帰無仮説とする
    • RSS_iの自由度はφ_i=n-p_i-1
    • \dfrac{\dfrac{RSS_0-RSS_1}{φ_0-φ_1}}{\dfrac{RSS_1}{φ_1}}\sim F(φ_0-φ_1,φ_1)
    • 「仮定の前後で最小残差平方和を求め、誤差増分と仮定前の比でF検定」
  • 線形制約:線形モデルのパラメタ間に線形制約がある場合

    • モデルy=X\bm{β}+εにおいて、パラメタ間に制約L\bm{β}=\bm{c}を設ける
    • 無制約残差最小化:\hat{\bm{β}}=(X^TX)^{-1}X^Ty
    • 制約付き残差最小化:\bm{β}=\hat{\bm{β}}-(X^TX)^{-1}L^T(L(X^TX)^{-1}L^T)^{-1}(L\hat{\bm{β}}-\bm{c})

その他のテクニック等

  • F分布の必要な点が与えられていないとき
    • 自由度(1,n)F分布の上側α\%:自由度nt分布の上側\dfrac{α}{2}\%2
    • F分布は第2自由度について減少関数(第1自由度についてはそうとは限らない)
  • 回帰分析と分散分析
    • 回帰分析とxの水準毎の分散分析に差があるとき、直線的関係ではないといえる

Discussion