✅出力層の活性化関数の微分2025/06/17に公開学習記録ニューラルネットワークidea はじめに 概要 シラバス:E資格2024#2 出力層の活性化関数の微分結果を覚える 逆伝播で各活性化関数の微分の特徴を勉強する モデル訓練のステップ アーキテクチャの設計 入力層設計 中間層設計 出力層設計 誤差計算 モデルに誤差を反映する 重みの更新の設定をする 最適なモデルを手に入れる キーワード なし 学習内容 シグモイド関数の微分 https://zenn.dev/cartellya/articles/cartellya_20250617001019_e-memo-00020 ソフトマックス関数の微分 y_i = \frac{e^{x_i}}{\sum_{j=1}^{n} e^{x_j}} \frac{\partial y_i}{\partial x_j} = \begin{cases} y_i (1 - y_i) & \text{if } i = j \\ - y_i y_j & \text{if } i \ne j \end{cases} GitHubで編集を提案Discussion
Discussion