📊

📊 重回帰完全まとめ(画像付き)

に公開

📊 重回帰完全まとめ(画像付き)


1. 仮説 (Hypothesis)

H(x) = ∑(wᵢ * xᵢ) + b

  • x: 入力値(独立変数)
  • w: 重み(入力値の重要度)
  • b: バイアス(初期値)

👉 入力に重みをかけて合計し、最後にバイアスを足した値が予測値 H(x) です。


2. コスト関数 (Cost Function)

Cost(w, b) = (1 / 2m) ∑(H(x⁽ⁱ⁾) - y⁽ⁱ⁾)²

  • 予測値と正解の差を二乗して平均を取った値です。
  • コストが小さいほど良いモデルになります。

3. 勾配計算(微分)

重み wⱼ に対する偏微分:

∂Cost/∂wⱼ = (1 / m) ∑(H(x⁽ⁱ⁾) - y⁽ⁱ⁾) * xⱼ⁽ⁱ⁾

→ 誤差 × 対応する入力値(入力が異なるため掛ける)

バイアス b に対する偏微分:

∂Cost/∂b = (1 / m) ∑(H(x⁽ⁱ⁾) - y⁽ⁱ⁾)

→ 入力なしで誤差の平均を使用します。


4. パラメータの更新(勾配降下法)

重みの更新:

w := w - α * ∂Cost/∂w

バイアスの更新:

b := b - α * ∂Cost/∂b

  • α(学習率): どれだけ慎重に更新するかを決める値
  • 勾配を用いてコストを減らすように、重みとバイアスを毎回少しずつ更新します。

5. まとめ

入力と予測値を比較して誤差を計算し、
その誤差を減らすために重みとバイアスを少しずつ調整します。
このプロセスを繰り返しながら、コスト関数の最小化を目指します。

Discussion