学習メモ:機械学習&ディープラーニングのしくみと技術がしっかりわかる教科書
Chapter 3. 機械学習のプロセスとコア技術
20. 能動学習
受動学習
全データを使用する。
能動学習
1 .まぎらわしいデータを選ぶ。
2. 正解データを付与する(ラベル付けする)。
3. 学習させる。
21. 相関と因果
因果分析におけるガイドライン
- 強固性
- 一致性
- 特異性
- 時間的先行性
- 量-反応関係
- 妥当性
- 整合性
- 実験
- 類似性
- 回帰分断デザイン
Chapter 4. 機械学習のアルゴリズム
23. 回帰分析
測定値(真値)
L1正則化:ラッソ回帰
罰則項(正則化項)
L2正則化:リッジ回帰
罰則項(正則化項)
Elastic Net 回帰
L1正則化もL2正則化も用いる回帰。
24. サポートベクターマシン(SVM)
ソフトマージンSVM
境界の向こう側のデータを許容するもの。
カーネル法
高次元特徴空間へ写像してから線形分離する方法。
カーネル関数には、
- ガウシアン(RBF)カーネル
- 多項式カーネル
26. アンサンブル学習
バギング
母集団から重複込みでランダムにデータを抽出する ブートストラップ法 を使って、全データから訓練データ群を複数セット取り直し、それぞれのデータ群から学習モデルを作る。それら複数の学習モデルによる予測結果を掛け合わせて予測する。
ブースティング
学習させてモデル1を作り予測を行い、間違えた部分を再学習させたモデル2を作り予測を行い、また間違えた部分を再学習させてモデル3を作り予測を行い……これらできあがったモデル1,2,... の予測結果をかけ合わせて予測する。
- AdaBoost:2クラスの分類に用いられる。
- SAMME(Stagewise Additive Modeling using a Multiclass Exponential loss function):3クラス以上。
27. アンサンブル学習の応用
ランダムフォレスト
バギングの派生。特徴量ごとランダムに取り直す。
スタッキング
予測結果を入力して予測する。
勾配ブースティング
誤差の予測、またその誤差の予測…を重ねる。
29. ベイジアンモデル
データがどのように発生しているのかというデータの発生構造(モデル)の候補をあらかじめ設計しておき、データを使ってそのモデルを推定し、推定したモデルをもとに予測を行う。
30. 時系列分析と状態空間モデル
基本の時系列モデル
自己回帰(AR)
移動平均(MA)
自己回帰移動平均(ARMA)
自己回帰和分移動平均(ARIMA)
上昇や下降といったトレンドの影響を抑えるために、データの差分をとる。
季節自己回帰和分移動平均(SARIMA)
季節変動(周期的変動)をデータから差し引く。
k近傍(k-NN)法と k平均(k-means)法
k近傍法:分類に利用される教師あり学習のアルゴリズム
学習データ(正しいラベルを付与したデータ)を用意する。
分類したいデータと、学習データの距離を計測する。
距離の短い(類似度の高い)データを
性能のよい
k平均法:クラスタリングに利用される教師なし学習のアルゴリズム
データをランダムに
クラスタ毎に重心を求める。
もっとも近い重心のクラスタに分け直す。
新たな重心を求める。
収束するまで繰り返す。
Chapter 5. ディープラーニングの基礎知識
Chapter 6. ディープラーニングのプロセスとコア技術
37. 誤差逆伝搬法によるニューラルネットワークの学習
誤差逆伝搬法(バックプロぱゲーション)
38. ニューラルネットワークの最適化
最適化アルゴリズム
SGD(確率底勾配降下法)
Momentum SGD
Adagrad
RMSprop
Adam
40. 転移学習
ドメイン適合
ドメイン混同(domain confusion)
One-shot 学習
公開データセットと学習済みモデル
- MNIST : 手書き数字
- MS-COCO
- ImageNet
- Open Images Dataset
- VisuaQA
- The Street View House Numbers (SVHN)
- IFAR-10
- Fashon-MNIST : 衣料品
Chapter 7. ディープラーニングのアルゴリズム
42. 再帰型ニューラルネットワーク(RNN)
Long Short Term Memory (LSTM)
Gated Recurrent Unit (GRU)
双方向RNN (Bidirectional RNN)
sequene to sequence (Seq2Seq)
Attention
Encorder の途中の状態も Decorder に入力する。
Transformer
- Encorder-Decorder の構造を持つ。
- Attention 機構を持つ。
- RNN は使っていない。
ELMo (Embeddings from Language Models)
BERT (Bidirectional Encoder Representations from Transformers)
43. 強化学習とディープラーニング
必要なサンプル数は、モデルベース、価値ベース、方策ベースの順に多くなる。
- モデルベース
- モデルは既知
- AlphaZero
- モデルを学習
- モデルは既知
- モデルフリー
- 価値ベース(Q学習):行動の選択肢が有限少数の場合
- DQN
- 方策ベース(方策最適化)
- 方策勾配法 (Policy Gradient)
- REINFORCE
- 方策勾配法 (Policy Gradient)
- 価値ベースと方策ベースの組合せ
- Actor-Critic
- 価値ベース(Q学習):行動の選択肢が有限少数の場合
参考リンク
DQN (Deep Q-Network)
(状態、行動) -> 行動価値 の対応付けの表を代替するニューラルネットを学習させる。
出力した行動価値にしたがって行動を選択する。
基本的には行動価値最大の行動を選択するが、まれに(確率
Actor-Critic
方策ベースの Actor と価値ベースの Critic
- A2C (advantage Actor-Critic) : 同期並列高速化アルゴリズム
- A3C (asynchronous advantage Actor-Critic) :非同期並列高速化アルゴリズム
44. オートエンコーダ
符号化復号化で入力データと同一データを出力できることを目指す。
符号化後のデータにはそのデータの本質的な情報が表されていると考えられる。
これを 潜在変数 と呼び、次元削減に活用できる。
CAE (Convolutional Autoencoder)
DAE (Denoising Autoencoder)
VAE (Variational Autoencoder)
中間層で平均と分散を出力し、それらを用いて入力データと条件を変えた新たなデータを出力する。
45. GAN(敵対的生成ネットワーク)
学習時の不安定さがネック。
生成器 (Generator)
識別器 (Discriminator)
モード崩壊
生成データが偏ること。
46. 物体検出
近年の物体検出アルゴリズムは、注目領域決定とラベル推定を1つのニューラルネットワークで行う。
| 手法 | 識別制度 | 処理速度 |
|---|---|---|
| Faster R-CNN | ◎ | △ |
| SSD | ◯ | ◯ |
| Yolo | △ | ◎ |
Discussion