分散と期待値をそれぞれ覚えるのめんどくさくないですか?
はじめに
手前みそですがこちらと同じ雰囲気(仮称:再発見シリーズ)です
🧠脳死で暗記するパラメタツートップについて
統計の代表的なパラメタと言えば恐らく期待値と分散(標準偏差)だと思います。
統計検定2級らへんを勉強して、正規分布なんかを相手にし始めて「とりあえずそういうパラメタがあるんだ~覚えよ」と思ってそのままの方も多いんじゃないかなって思います。(私もそうでした。)
🧠脳死で暗記する公式について
具体的には統計検定2級を勉強してる人をイメージしてお話しますと、以下の公式を覚えたと思います。
先に言っておきますと、上記を丸暗記するだけでOKです。計算できればそれでいいですし、実務上は分散とかを計算する関数が標準で搭載されていることが多いです。(Excelなどには詳しくないですがあるはずですし、pythonやRのライブラリには基本入ってるはずです)
ただ、「上記の公式は覚えた」、「計算もできる」、「導出もできる」けれど「だからなんやねん…」と思った方もいるんじゃないでしょうか?
少なくとも私はそう思っていました。表面上わかってはいるものの本質は理解できていないような、視座が低いような感覚がありました。
分散も結局は期待値
で、結論は見出しの通りなんですけど、2つのパラメタを別個のものとして覚えておくのってめんどくさくないですか?(私はめんどくさがりなのでめんどくさいと感じました)
しかし、実は期待値の方が上位概念であり、分散は期待値の特別なパターンと見なすことができると考えると1つの枠組みを覚えるだけでよかったんじゃん!、というのが今回のお話です。(「当たり前じゃん」と思った方は私よりはるかに数弱の戯言と聞き流してください)
灯台下暗しと言いますか、私はこれに後から気づいて、完全にアハ体験をしたのでアウトプットしてみた感じです。
以下ざっくり説明します。
まず、ここでは連続分布を考えますが、離散分布でも積分がΣに変わるだけで考え方としては同じことです。確率密度関数をp(X)と置くと以下のようになります。
- Xの関数をg(X)としたとき
E[g(X)]=\int g(x)p(x)dx - 分散の定義式:
Var[X]=\int (x-\mu)^2p(x)dx
ここでラッキーなことにg(X)の期待値の右辺(1)とXの分散の右辺(2)が同じ形をしていることに気づくと思います(天下り)。
具体的には
-
E[g(X)]=E[(X-\mu)^2]=\int (x-\mu)^2p(x)dx=Var[X] -
Var[X]=E[(X-\mu)^2]
この式が最初の方で触れた脳死で暗記する公式
統計検定2級の合格をするため、つまり計算を強いられる場面ではもちろん展開してOKです。あくまで概念的なものをつかみたい場合には展開する前の形の方がつかみやすいという意味です。
数強の方には「だから何?」と思われるかもですが、私のような数弱にとってこれは大きな進歩なのです。
なぜなら
その点、
統計検定準1級以上を目指す方へ
統計検定2級は正直
期待値を絡めた式の導出までできたら花丸ですし、それ以上深入りする必要は実務上あまりないかもしれません。
でも、もしそこから準1級以上を狙いたいな~となった場合、実はここまでのはお話にメリットが生まれます。それは準1級から範囲になるモーメント(=積率)という概念と関係があります。
具体的には
と置くと g(X)=(X-\mu)^2
E[g(X)]=E[(X-\mu)^2]=\int (x-\mu)^2p(x)dx=Var[X] Var[X]=E[(X-\mu)^2]
と計算したわけですが、ここのg(X)を拡張することができます。
例えば
- 平均周りのk次モーメント:
E[(X-\mu)^k] - つまり平均周りの2次モーメントが分散であると言える
- 原点周りのk次モーメント:
E[(X-0)^2]=E[X^k]
要は
- 分散と期待値は別個にとらえずに大きな目で見るとどっちも期待値というフレームワークに収まっている
- 計算上別に困らないけれどその意識を持っているとモーメントという概念を理解しやすくなるのでお得
というお話でした
Discussion