📌
回帰とは?
回帰(Regression)とは?
統計学や機械学習における手法の1つ。ある変数(目的変数)の値を他の変数(説明変数)から予測するために使用する。
回帰モデル...回帰の数式そのもののこと。
回帰分析...回帰モデルを使ってデータ分析を行うこと。
回帰の種類
- 単回帰
- 重回帰
- リッジ回帰
- ラッソ回帰
- 非線形回帰
- ロジスティック回帰
などがある。
単回帰
1つの説明変数と1つの目的変数との間の線形な関係。
(x:目的変数,y:説明変数)
重回帰
複数の説明変数と1つの目的変数との関係。
ロジスティック回帰
2クラス分類、2値分類に使用され、特定の結果が発生する確率を予測する。
この場合、目的変数は確率となるので、予測値は0〜1に収めるために、
以下のロジスティック関数で任意の値を0〜1に変換する。そして結果が0.5より小さければ0,大きければ1というように2値に分類する。
補足:ロジスティック関数はシグモイド関数(S字型の曲線を持つ非線形関数)の1種。
回帰における評価指標
- 平均絶対誤差(MAE)
- 平均絶対パーセント誤差(MAPE)
- 平均二乗誤差(MSE)
- 二乗平均平方誤差(RMSE)
- 対数平均二乗誤差(RMSLE)
- 決定係数
平均絶対誤差(MAE)
予測値と実際の値との差の絶対値の平均。
(
利点:外れ値の影響を受けにくい
平均絶対パーセント誤差(MAPE)
相対誤差の平均をとったもの。
MAPEが低いほど、モデルの性能が高い。
利点:スケールが異なるデータの予測(時系列予測に対応できる)
注意点:正解値が0に近い場合、極端な評価値になってしまう。
平均二乗誤差(MSE)
誤差を二乗して平均する。
MSEが小さいほどモデルの性能が高い。
利点:大きな誤差を重視する。
注意点:単位が二乗されるため、直感的に理解しにくい
二乗平均平方誤差(RMSE)
対数平均二乗誤差(RMSLE)
R^2 )
決定係数(モデルが実際のデータをどれだけ説明しているかを評価するための指標。
0から1の範囲で1に近いほど良いモデル。説明変数を増やすほど1に近づく傾向があることに注意。
その他の統計量
- 標準誤差(SE)
- 残差の標準誤差(RSE)
- 偏回帰係数(それぞれの説明変数の係数)
- 標準偏回帰係数
- t統計量
- (t検定に基づく)p値
- 自由度修正済み決定係数
- F統計量
- (F検定に基づく)p値
Discussion
ここの数式が描画できてないっぽいです
https://zenn.dev/kisaragi71/articles/2d00c45b2f2cc1#平均絶対パーセント誤差(mape)