🅿

ロジスティック回帰の4通りの表現+多クラス分類

2024/04/26に公開
1

要約

いまさらロジスティック回帰?と思うかもしれないが, もう火鍋の話はしない. 昔書いたやつを読み返したら中途半端だったので改めて(2値)ロジスティック回帰のいくつもある表現について書きたくなった. 昔書いたやつというのは以下のことである.

https://ill-identified.hatenablog.com/entry/2015/03/01/170623

今度は以下の4種類に触れる. 最初の2つは前回の記述を推敲しただけでほとんど同じである.

  • 経済学でよく使われるロジットモデルの潜在変数モデルによる表現
  • 一般化線形モデル (GLM) の特殊形としてのロジスティック回帰
  • 機械学習の分類タスクとしてのロジスティック回帰 (分類) モデル
  • 事後確率で見たロジスティック回帰

各教科書に載っている内容を集めただけなので, 目新しい話はない.

はじめに

最もシンプルなモデルであるロジスティック回帰には, いくつもの表現がある. どのモデルでも得られる結果は同一だが, 導出の過程が異なる.

GLM の特殊形としてのロジスティック回帰

久保 (2012) (通称緑本) では, 線形予測子をロジットリンク関数で変換したものとしてロジスティック回帰を解説している.[1] 線形予測子 y_i^\ast を次のように定義する. これ以降と比較しやすいよう, 本誌の記述とは異なる記号を使っている.

y_{i}^{\ast} = \alpha+\beta x_{i}+\gamma z_{i}

x_i, zi はそれぞれ説明変数で, \alpha, \beta, \gamma がパラメータである. GLMでは, 線形予測子を変換する関数をリンク関数はと呼んでおり, ロジットリンク関数とはロジスティックシグモイド関数 (以下, 単にシグモイド関数と呼ぶ)のことである.[2] 線形予測子をシグモイド関数で変換した q_i は以下のようになる.

\begin{align} q_i &=\mathit{logistic}(y_i^{\ast})\\ &= \frac1{1+exp(−y_i^{\ast})} \end{align}

となる. シグモイド関数は, (-\infty, \infty) の定義域に対して (0,-1) の値域への変換ができる. つまり, シグモイド関数によって線型予測子を確率として扱える. q_iy_i=1 の確率とおきかえると, y_i がとる値は二項分布になる. これをもとに尤度関数を作成すると,

\mathcal{L} = \prod_i \binom{N_i}{y_i} q_i^{y_i} (1−q_i)^{N_i−y_i}

となる. しかしながら, 久保本は y_i が 0, 1 以上の値を取る場合の式を書いている. 厳密には, GLMの定義では, 上記の二項分布の式がロジスティック回帰と呼ばれる[3]ため, 後述する計量経済学と機械学習での定義とは少し異なる. しかし今回は2値のロジスティック回帰のため, y_i がゼロか1しかない場合だけを考える. N_i も1になるので, 二項分布の最も単純な形式であるベルヌーイ分布となり, 尤度関数はもう少しシンプルに, 以下のように書ける.

\mathcal{L} = \prod_i q_i^{y_i} (1-q_i)^{y_i}

対数尤度関数は以下のように表せる.[4]

\ln \mathcal{L} = \sum_i \left( y_i \ln q_i + (1-y_i) \ln (1-q_i) \right)

潜在変数モデルとしてのロジスティック回帰

計量経済学においては, ロジスティック回帰はロジットモデルと呼ばれることが多い. そして教科書ではロジットモデルを説明する時, 多くの場合で潜在変数 (latent variable) モデルを用いて表現している. 潜在変数とは, 結果を表す変数が直接観察できないという意味である. 経済学では, 人間の意思決定は効用関数で数量的に表現できるが, 多くの場合で効用関数は直接観測できないという想定で理論分析を行っている. 基本的なロジスティック回帰では, 効用は線型回帰と同じように, 説明変数に依存して決定すると仮定している. ここでは, 記法の統一のため, 誤差項を含まない部分のみを y_i^\ast としている. しかし, 一般に潜在変数は誤差項を含んだものと定義される. つまり, \alpha + \beta x_i + \gamma z_i + \varepsilon_i = y_i^\ast + \varepsilon_i までが潜在変数となる. 多くの教科書では誤差項も含んだ式を y_i^\ast と表記するため, 注意が必要になる.

y_i^{\ast} =\alpha + \beta x_i + \gamma z_i

ロジットモデルでは, この効用の大きさが本来の結果変数だが, 効用は観測はできない潜在変数であり, 行動として現れる ゼロか1かの2値の離散変数 y_i を代わりの被説明変数として扱う.

潜在変数である効用を y_i^{\ast} と表すと, 行動として現れる結果変数 y_i のどちらを選ぶかの意思決定が, ゼロを境に決まると仮定する.

y_i= \begin{cases} 1 & \text{if} y_i^{\ast} + \varepsilon_i \geq 0\\ 0 & \text{if} y_i^{\ast} + \varepsilon_i < 0 \end{cases}

ここで, \varepsilon_i は誤差項で, 標準ロジスティック分布にしたがうと仮定する. 標準ロジスティック分布とは, 位置パラメータがゼロ, 尺度パラメータが1のロジスティック分布のことで, 累積分布関数は以下で与えられる.

\Lambda(x) = \frac1{1 + \exp(-x)}

よって, y_i=0, 1 である確率, つまり選択確率は, それぞれ以下のようになる.

\begin{align} \mathrm{P}(y_i = 1) &= \mathrm{P}(y_i^{\ast} + \varepsilon_i \geq 0)\\ &= \mathrm{P} (\varepsilon_i \geq -y_i^{\ast})\\ &= 1 - \frac{1}{1 + \exp(-y_i^{\ast})}\\ &= \Lambda(y_i^{\ast}) \\ \mathrm{P}(y_i = 0) &= \mathrm{P}(y_i^{\ast} + \varepsilon_i < 0)\\ &= \mathrm{P} (\varepsilon_i < -y_i^{\ast})\\ &= \frac{\exp(-y_i^{\ast})}{1 + \exp(-y_i^{\ast})}\\ &= 1 - \Lambda(y_i^{\ast}) \end{align}

潜在変数と説明変数の関係式と合わせると, この選択確率はGLMのロジット q_i と同じであるとわかる.

さらに, ロジットモデルの尤度関数は, 選択確率が背反であるから, 2つの選択確率の積で表せる. よって, 尤度関数もGLMでのロジスティック回帰と同じになる.

\begin{align} \mathcal{L} &= \prod_i \Lambda(y_i^\ast)^{y_i} \Lambda(y_i^{\ast})^{1-y_i}\\ &= \prod_i q_i^{y_i} (1-q_i)^{1-y_i} \end{align}

ロジットモデルはこのように, 効用関数の概念を類推しやすい定式化から始まって, ロジスティック回帰と同じ式に帰着している. 効用 y_i^{\ast} が一定以上高ければ, 実際の行動 y_i=1 として現れ, 逆にその行動から得られる効用 y_i^{\ast} が小さければ, y_i=0 という行動, 言い換えるなら「行動をしない」 という選択に現れる. そして, その効用を決定する要素が説明変数である. ある商品を買う (y_i =1) か買わない (y_i=0) かを決めるのは, その商品の価格や品質, あるいは消費者の好みで決まると考えると, これらが説明変数に対応する (これは混合ロジットモデルと呼ばれる). さらに, 潜在変数モデルの考え方は多項選択モデルへ拡張することもできため, 多項ロジスティック回帰でも同じ要領で定式化できる. 詳細は, 昔書いた話 (https://ill-identified.hatenablog.com/entry/2014/06/10/000354) や, より専門的な話が知りたければ, Train (2009), Wooldridge (2010) などがおすすめである.

なお, 個人レベルの意思決定のデータがなく, 大勢の意思決定をいくつかのグループに集計したものだけが使える時に, そのグループ内で何割が選択している, という割合を被説明変数にした回帰モデルを集計ロジットモデルというらしい. 私は知らなかったが, 交通政策の分野なんかで使われることがあるらしい.

機械学習の分類モデルとしてのロジスティック回帰

機械学習でよく用いられる, 分類問題としてマージンから損失関数を構成する定式化を紹介する. 例えば 杉山 (2013), 中川 (2015) では, この定式化で説明されている.

まずは, ロジスティック回帰の定式化の前に, マージンと損失 (loss) の考え方を導入する. ここまでで紹介した2つのロジスティック回帰とは違い, 機械学習の2値分類問題では結果変数を -1, 1 の2通りと定義することが多い. しかし, (0, 1) から (-1, 1) への変換は 2x-1 で簡単にできるため, 本質的な問題とはならない. y_i を正しく分類するモデルを作るためには, 誤って分類した時は1を, 正しく分類したときは0を返す関数を考える. 最尤法では尤度関数を最大化することでパラメータが決まるが, 機械学習では損失関数を最小化することで決まる. そのため, 機械学習寄りのライブラリにあるソフトマックス回帰モデルと, 計量経済学よりのライブラリの多項ロジットのモデルとでは, 実装以前に定式化の違いで結果が異なる可能性がある. R ならば, 例えば nnet の multinom 関数と mlogit パッケージの mlogit 関数がある

線形分類モデルでは, マージンは, ラベルと線型回帰モデルの右辺の積で表される. ここで, これまでのロジスティック回帰の y_i との混同を避けるため, 結果変数 (分類の文脈では「ラベル」と呼ぶ) を l_i と表すと, マージンは以下のようになる.

\begin{align} m_i &= l_i \cdot (\alpha + \beta x_i + \gamma z_i)\\ &= l_i y_i^\ast \end{align}

機械学習では, 分類問題を, 誤った時の損失を最小化する問題として定式化アプローチがある. ラベルは-1か1のどちらかなので, y_i^{\ast} との積であるマージンが正ならば分類が正しいということになるから, 以下のような損失関数が考えられる. これを 0/1損失と呼ぶ.

\begin{align} \mathit{Loss} &= \sum_i \mathit{loss}(l_i, y_i^\ast)\\ \end{align}

ここでの \mathit{loss} は以下で定義される.

\mathit{loss}(l_i, y_i^\ast) = \begin{cases} 1 & \text{if } m_i > 0\\ 0 & \text{if } m_i \leq 0 \end{cases}

しかし, このような損失関数は非連続であり, 組み合わせ最適化問題に属するため, 現実的に計算できない可能性が高い. そこで, 機械学習では0/1損失を近似できて計算しやすい関数で置き換える. そのうち1つがロジスティック損失または対数損失と呼ばれる損失関数で近似したロジスティック回帰であり, あるいは2乗損失を利用した最小二乗法であり, ヒンジ損失を使用したサポートベクターマシン (SVM) であり, 指数損失を利用したAdaBoostであったりする. こういった損失関数は代理 (surrogate) 損失という. この中ではロジスティック損失は \mathit{loss} = \ln(1+\exp(m_i)) と定義される.

参考: 0/1損失といろいろな代理損失の比較, 杉山(2013)を元に作成

p(y_i=1\mid x, z) に対応するラベルは l_i=1 なので, 確率は 1/(1+\exp(-y_i^\ast)) = 1/(1 + \exp(-m_i)) と表せる. 同様に y_i=0, つまりl_i=-1 のとき, p(y_i=0\mid x, z) = 1/ (1 + \exp (-m_i)) と表せるので, この表記での対数尤度は以下のように表せる.

\begin{align} \ln \mathcal{L} &= \ln \prod_i p(y_i=1\mid x_i, z_i)^{y_i}p(y_i=0\mid x_i, z_i)^{1-y_i}\\ &= \ln \prod_i (1+\exp(-m_i))^{-1}\\ &= -\sum_i \ln (1+\exp(-m_i)) \end{align}

対数尤度が, 符号が反転したロジスティック損失となった. 機械学習では損失関数を最小化するから, これは対数尤度の符号を反転して最大化することと同じである. よって, この式から, ロジスティック回帰の対数尤度最大化とロジスティック損失最小化が等価であることがわかる.

事後確率の近似としてのロジスティック回帰

Bishop (2006) の Pattern Recognition and Machine Learning, いわゆる『パターン認識と機械学習』は機械学習の名を冠しているが, 上記のようなマージンを使った説明ではなく, 事後確率を使用して導出している.[5]

\begin{align} P(y_i=1\mid x) &= \frac{p(x\mid y_i=1) P(y_i=1)}{P(x\mid y_i = 1)p(y_i=1) + p(x\mid y_i=0)p(y_i=0)}\\ &= \frac1{1 + \frac{p(x\mid y_i=0)p(y_i=0)}{p(x\mid y_i=1)p(y_i=1)}} \end{align}

なお, 上の式では事後確率は本来 x, z で条件付けられるべきだが, 冗長なので z は省略する.

y_i^\ast = \ln \frac{p(x\mid y_1=1)p(y_i=1)}{p(x\mid y_i = 0)p(y_i=0)}

とおくと, 事後確率は以下のようになる.

\begin{align} p(y_i=1\mid x) &= \frac{1}{1+\exp(-y_i^\ast)}\\ &= \mathit{logistic}(-y_i^\ast) \end{align}

ここで, p(x\mid y_i) は, データのうち各 y_i に属するものの特徴量 x の条件確率である. この x の条件分布が正規分布だと仮定するなら, 以下で表せる.

p(x\mid y_i=k) = \frac1{\sqrt{2\pi}\sigma_k} \exp\left(-\frac{(x-\mu_k)^2}{\sigma_k^2}\right),\, k = 1, 2

ここでさらに, 各ラベルの標準偏差 \sigma_k が等しく \sigma だと仮定すると, \alpha, \beta

\begin{align} \alpha &= -\frac1{2}\frac{\mu_1^2}{\sigma^2} + \frac1{2} \frac{\mu_2^2}{\sigma^2} + \ln \frac{p(y_i=1)}{p(y_i=0)}\\ \beta &= \frac{(\mu_1 - \mu_2)}{\sigma^2} \end{align}

と表せる. よって, ここでも線形予測子とシグモイド関数の関係が現れる.[6]

\begin{align} y_i^\ast &= \ln \frac{p(x\mid y_1=1)p(y_i=1)}{p(x\mid y_i = 0)p(y_i=0)}\\ y_i^\ast &= \alpha + \beta x \end{align}

以降の尤度関数を構成する箇所は, GLMやロジットモデルと同じなので省略する.

この説明は一見すると, 導出仮定がややこしく, 式は複雑で洗練されておらず, いびつに見えるかもしれない. しかし, ここまでの3種類の説明では, 事前確率 p(y_i) にあたる要素に全くふれられていなかった. この説明で初めて事前確率 p(y_i) という概念が登場し, パラメータにどう影響するかが示唆された.

現実では, この事前確率に対処する方法は様々である. 事前確率が各ラベルで均等である, つまり訓練データ内に均等な頻度で登場しているならあまり気にする必要はないが, 不均衡である場合はナイーブベイズモデルであったり, データのリサンプリングによって補正したりといった応用方法がある.

(追記) 多項選択・多クラス分類への拡張

先日とある企業の面接でロジスティック回帰が話題になり, その際に多クラス分類や多項ロジットに拡張してもこれらは同じなのかという疑問が生じたので追記する. 以下のように, 定義が微妙に異なるものがいくつかあるのでその場では即答できなかったが, 教科書に書かれている内容から容易に導ける話ではあるため追記する. これ以降, ロジットモデルあるいはロジスティック分類について, 3択以上, あるいはクラスが3つ以上の場合を考える. 2択であれば通常のロジットと同じで, 1択や0択やマイナス択は意味をなさないからである. 選択肢を j=0,1,\cdots,J と書く.

計量経済学の教科書では, 目的変数がカテゴリカルなモデル全般を扱う分野を離散選択 (discrete choice) と呼んでいる. 多項ロジット (MNL) モデルでは, 選択確率を天下り的に(?) 以下のように決める.

r_{i,j} := \mathrm{P}(y_i=j\mid \boldsymbol{x}_i) = \frac{\exp(y_{i,j}^\ast)}{\sum_{j=0}^J \exp(y_{i,j}^\ast) }

ここから, 対数尤度は, ロジットモデルと同様に選択確率の積で以下のように表現できる.

\begin{align} \mathcal{L} :=& \prod_{i=1}^N r_{i,1}^{1(y_i=0)}r_{i,2}^{1(y_i=1)} \cdots r_{i,J}^{1(y_i=J)}\\ =& \prod_{i} \prod_{j} r_{i,j} \\ \ln \mathcal{L}=& \sum_i \sum_j \ln r_{i,j}^{1(y_i=j)} \\ =& \sum_i \sum_j 1(y_i=j)\ln\frac{\exp(y_{i,j}^\ast)}{\sum_{k=0}^J \exp(y_{i,k}^\ast) } \end{align}

先ほどの選択確率は, 機械学習の教科書では正規化指数関数またはソフトマックス関数と呼ばれる事が多い. つまり, 多項ロジットは機械学習でいう多クラスロジット分類や, ソフトマックス回帰と呼ばれるものと同じである. 実は, この選択確率とかソフトマックス関数とか呼ばれるこの式は, ボルツマン分布またはギブス分布と呼ばれている分布の各パラメータを1に固定した場合と同じである. 私は物理学には詳しくないため, 統計力学でこの式にどのような意味付けがなされているかの解説はしない.

ここで, J=\{0,1\} の場合は, 選択確率は exp(y_{i,j}^\ast)/(\exp(y_{i,0}^\ast) + \exp(y_{i,1}^\ast) ) となる. しかし, これはパラメータが過剰であり, 一意にならない. そこで, y_0=0 で正規化すれば, 2値のロジスティック回帰と同じ式が現れる. よって, 2値のロジット/ロジスティック回帰は多項ロジットの特殊形とみなせる.

しかし, 計量経済学の文脈では, ロジットの場合と同様に潜在変数アプローチによる説明も重要になる. McFadden (1974) は次のような定式化を提案している.

y_{i,j}^ast = \boldsymbol{x}_{i,j}^\top \boldsymbol{\beta} + \varepsilon_{i,j}

選択肢が3以上の場合, どの選択肢を選ぶかは \max_j \left\{y_{i,j}^\ast + \varepsilon_{i,j}\right\} で表せる. この時, \varepsilon_{i,j}j について互いに独立な標準ロジスティック分布であると仮定するなら, それらの最大値である y_{i} はいわゆる順序統計量であり, \varepsilon_{i,j} の分布はそれぞれ互いに独立な第I種の極値分布あるいはガンベル分布に従う[7]と仮定する. ガンベル分布は以下のような累積分布関数で表現できる.

F(z) = \exp\left(-\exp(-z)\right)

よって, j の選択確率は \mathrm{P}(\varepsilon_{i,j} < \varepsilon_{i,k} + y_{i,j}^\ast - y_{i,k}^\ast, \forall k\neq j) になる. ガンベル分布の累積分布関数と確率密度関数をそれぞれ G, g とすると, この確率は以下のように周辺化して表せ, そこから再びボルツマン分布が現れる. Train (2009) の3章末にこの導出過程が詳しく書かれている.

\begin{align} \mathrm{P}(y_i=j\mid \boldsymbol{y}_i^\ast) &= \int_{-\infty}^{\infty} \left(\prod_{k\neq j}G(\varepsilon_{i,k} + y_{i,j}^\ast - y_{i,k}^\ast)\right) g(\varepsilon_{i,j}) d \varepsilon_{i,j}\\ &= \int_{-\infty}^{\infty} \left(\prod_{k=0}^J G(\varepsilon_{i,k} + y_{i,j}^\ast - y_{i,k}^\ast) \right) \exp(-\varepsilon_{i,j})d\varepsilon_{i,j}\\ &= \int_{-\infty}^{\infty} \exp \left(-\mathrm{e}^{\varepsilon_{i,j}}\sum_k \exp(-(y_{i,j}^\ast - y_{i,j}^\ast)) \right)\mathrm{e}^{-\varepsilon_{i,j}} d\varepsilon_{i,j}\\ &= \int_0^\infty \exp(-t\sum_k \exp(y_{i,k}^\ast - y_{i,j}^\ast)) d t, t=\exp(-\varepsilon_{i,j})\\ &= \frac{\exp(y_{i,j}^\ast)}{\sum_k \exp(y_{i,k}^\ast)} \end{align}

よって, この定式化も同じ尤度関数となる.

次に, GLMの場合はどうなるかである. 私はGLMに関する網羅的な教科書を持っていないため, 具体的に参考になる教科書は引用できない. しかし, 多項分類はベクトルGLMとして定式化できるようだ. 多項ロジットと同様に, j=0,\cdots,J に対して線型予測子を定義する.

\begin{bmatrix} y_{i,0}\\ y_{i,1}\\ \vdots\\ y_{i,J} \end{bmatrix} = \begin{bmatrix} \boldsymbol{x}_i^\top\boldsymbol{\beta}_0\\ \boldsymbol{x}_i^\top\boldsymbol{\beta}_1\\ \vdots\\ \boldsymbol{x}_i^\top\boldsymbol{\beta}_J \end{bmatrix}

J+1 個の方程式に対してそれぞれソフトマックス関数 \exp(x)/(\sum_j \exp(x_j)) を適用すれば, 二項ロジットモデルと同様の選択確率を得られる. ここでも, 各 y_{i,j} =0,1 の場合だけを考えると, 尤度関数は計量経済学の教科書で言うMNLと同じであり, 2値ロジスティック回帰が多項ロジットの特殊形であることも同じである.

事後確率からの多クラスロジスティック回帰はPRMLで言及されている. クラスの事前確率 P(y_i) に対する事後確率は以下である.

p(y_i\mid \boldsymbol{x}_i) = \frac{p(\boldsymbol{x}\mid y_i)p(y_i)}{\sum_{k=0}^J p(\boldsymbol{x}_i \mid y_i=k)p(y_i=k)}

この時, y_{i,j}^\ast:=\ln(p(\boldsymbol{x}_i\mid y_i=j)p(y_i=j)) とすると, 上記の事後確率の式はソフトマックス関数となる. そして, p(\boldsymbol{x}_i\mid y_i) を多変量正規分布と仮定すると, y_i^\ast\boldsymbol{x} の線形関数となる. PRMLは原著が無料で公開されているため式は省略する.

最後に, マージンと損失による定式化を多クラス分類に拡張した場合を考える. 多クラス分類の場合のマージンを説明している教科書は見つからなかった. 杉山 (2013) がヒントを示している程度である. ガンベル分布の仮定を追加してよいのなら, 2値の場合と同様に, 損失関数の最小化と尤度の最大化が等価であることは簡単に示せる. 確率分布の仮定を使わない場合は, ソフトマックス関数が, \arg \max 演算子を滑らかな関数で近似したものであることを利用すれば, 多項ロジットと同じであることを示せそうだが, 少し長くなりそうなので今回は諦めた.

以上から, 多項ロジット・多クラス分類に拡張しても, 少なくとも3通りの表現は同じモデルに帰着することが, 標準的な教科書からわかる.

より実用的な観点からの補足

計量経済学では, パラメータの推定に関心があることが多い. 既に言及したように, ソフトマックス関数ではパラメータが一意に決まらないため, いずれかの選択肢を基準として, そのパラメータをゼロに固定する. 教科書では, j=0 を基準選択肢として, 一般性を失わずに, 以下のように表されることが多い.

r_{i,j} := \mathrm{P}(y_i=j\mid \boldsymbol{x}_i) = \frac{\exp(y_{i,j}^\ast)}{1 + \sum_{j=1}^J \exp(y_{i,j}^\ast) }, j=1,\cdots,J

一方で, 機械学習では回帰係数の一意性が重視されないことが多いため, ライブラリでもこのようなパラメータの正規化がなされない事が多いため, 「多項ロジット」と「多クラスロジスティック」の実装ではそれぞれ結果が異なる可能性がある.

加えて, 多項ロジットとMcFaddenの定義は微妙に異なる. 前者は \boldsymbol{x}_i^\top\boldsymbol{\beta}_j で, 後者は \boldsymbol{x}_{i,j}^\top\boldsymbol{\beta} である. つまり, 前者は各選択肢 j に対して異なるパラメータと, 同じ説明変数が対応し, 後者は逆に選択肢ごとに値が異なり, パラメータは固定されている. 個人ごとに属性が異なる場合は, 前者の多項ロジットが当てはまるだろう. 後者のような, 説明変数が選択肢ごとに異なる具体例として, 商品の購入行動がある. どの商品を購入するかで価格が異なる場合がある. そのため McFadden の定式化は, 多項ロジットと区別するため条件ロジット (Conditional Logit) と呼ばれる事がある. さらに, 個体ごとに異なる説明変数の項 \boldsymbol{w}_{i}^\top \boldsymbol{\beta}_j を追加し, 条件ロジットとMNLの両方のパラメータ化を併用できる, 混合ロジット (Mixed Logit) も存在する. しかし, これらの違いは計画行列の取り方の問題なので, どちらかが潜在変数アプローチに反することはなく, 尤度関数を構成する分布族に本質的な違いも生じない. 結局は各選択肢は互いに素であるため, 尤度関数は, 通常の多項ロジットモデルと同様にボルツマン分布の積で表現できる.

さらに, scikit-learn では, 特徴量ごとに共通の係数パラメータが設定されているため, 計量経済学におけるMNL設定とは異なり, むしろ条件ロジットと同じ設定になっている. 機械学習寄りの教科書の多くでも, 条件ロジットを想定した表記となっている. だが, クラスの種類がさほど多くないなら, あるクラスに属しているかどうかのバイナリ変数 1(y_i=j)K 次元の特徴量に対して K \times J 通り (あるいはパラメータを一意にしたいなら,\times(J-1)) の積を特徴量として用意すれば, MNL・混合ロジットと同等のモデルを計算できないこともない.

参考文献

Bishop, Christopher M. 2006. Pattern Recognition and Machine Learning. Information Science and Statistics. New York: Springer. https://www.microsoft.com/en-us/research/people/cmbishop/prml-book/.

McFadden, Daniel. 1974. “Conditional Logit Analysis of Qualitative Choice Behavior.” In Frontiers in Econometrics, edited by Paul Zarembka, 105–42. New York: Academic Press. https://doi.org/10.1108/eb028592.

Train, Keneth. E. 2009. Discrete Choice Methods with Simulation. 2nd ed. New York: Cambridge University Press. https://eml.berkeley.edu/books/choice2.html.

Wooldridge, Jeffrey M. 2010. Econometric Analysis of Cross Section and Panel Data. 2nd ed. The MIT Press. https://mitpress.mit.edu/books/econometric-analysis-cross-section-and-panel-data.

中川裕志. 2015. 機械学習. Edited by 東京大学工学教程編纂委員会. 東京大学工学教程 情報工学. 丸善出版.

久保拓哉. 2012. データ解析のための統計モデリング入門. 岩波書店.

杉山将. 2013. イラストで学ぶ機械学習: 最小二乗法による識別モデル学習を中心に. 東京: 講談社.

脚注
  1. GLMに限定して解説している教科書を他には持っていないが, 私が持っている書籍の範囲では, どれもおおむね同じ定義になっている. ↩︎

  2. この説明はあまり正確ではない. それならなぜロジットという別の呼び名があるのか. ロジットとは, ロジスティックシグモイド関数の逆関数を指す. つまり, ロジットリンク関数という名称は, 本来は逆に確率から線形予測子へと変換する関数を意図している. ↩︎

  3. 教科書によっては二項回帰モデルと呼ばれていることもあるが, GLMが主題の多くの教科書ではこれがロジスティック回帰モデルと呼ばれている ↩︎

  4. ここでは, 観測個体ごとに事象がIIDと仮定している. GLMは仮定を緩和しGEEへと拡張することも可能で, 他の分野で使われるロジスティック回帰でもそれぞれ拡張モデルが研究されている. しかし, ここでは一番単純なIIDを想定して比較する. ↩︎

  5. 中川 (2015) でもこちらの定式化に少し触れている. ↩︎

  6. ここでは, z を省略している. z を含めて表現する場合は正規分布が多変量正規分布となるが, やはりパラメータと特徴量ベクトルの線型結合の関数が得られる ↩︎

  7. 英語版Wikipediaでは「標準」ガンベル分布と表記され, 位置パラメータと分散パラメータで標準化していないものを「一般化」ガンベル分布と呼んでいる. ↩︎

Discussion

sksk

公開してつもりが非公開になっていたので再公開しました