📊
📊 重回帰完全まとめ(画像付き)
📊 重回帰完全まとめ(画像付き)
1. 仮説 (Hypothesis)
H(x) = ∑(wᵢ * xᵢ) + b
- x: 入力値(独立変数)
- w: 重み(入力値の重要度)
- b: バイアス(初期値)
👉 入力に重みをかけて合計し、最後にバイアスを足した値が予測値 H(x) です。
2. コスト関数 (Cost Function)
Cost(w, b) = (1 / 2m) ∑(H(x⁽ⁱ⁾) - y⁽ⁱ⁾)²
- 予測値と正解の差を二乗して平均を取った値です。
- コストが小さいほど良いモデルになります。
3. 勾配計算(微分)
重み wⱼ に対する偏微分:
∂Cost/∂wⱼ = (1 / m) ∑(H(x⁽ⁱ⁾) - y⁽ⁱ⁾) * xⱼ⁽ⁱ⁾
→ 誤差 × 対応する入力値(入力が異なるため掛ける)
バイアス b に対する偏微分:
∂Cost/∂b = (1 / m) ∑(H(x⁽ⁱ⁾) - y⁽ⁱ⁾)
→ 入力なしで誤差の平均を使用します。
4. パラメータの更新(勾配降下法)
重みの更新:
w := w - α * ∂Cost/∂w
バイアスの更新:
b := b - α * ∂Cost/∂b
- α(学習率): どれだけ慎重に更新するかを決める値
- 勾配を用いてコストを減らすように、重みとバイアスを毎回少しずつ更新します。
5. まとめ
入力と予測値を比較して誤差を計算し、
その誤差を減らすために重みとバイアスを少しずつ調整します。
このプロセスを繰り返しながら、コスト関数の最小化を目指します。
Discussion