🦁

Deep Learning資格試験 まとめ

2022/01/30に公開

はじめに

日本ディープラーニング協会の Deep Learning 資格試験(E 資格)の受験に向けて、調べた内容をまとめていきます。

応用数学

線形代数

  • 演算規則
    • スカラー倍
    • 行列式
    • 単位行列
    • 逆行列
  • 連立方程式
    • 行基本変形
  • 固有値分解
    • 固有値、固有ベクトル
  • 特異値分解
  • いろいろな距離
    • マンハッタン距離
    • ユークリッド距離
    • マハラノビス距離

確率・統計(1)

  • 集合
    • 和集合
    • 共通部分
    • 絶対補
    • 相対補
  • 確率
    • 頻度確率
    • ベイズ確率
    • 条件付き確率
    • 独立な事象の同時確率
    • ベイズ則
  • 期待値
  • 分散・共分散
    • 分散
    • 共分散
    • 標準偏差
  • 確率変数と確率分布
  • さまざまな分布

確率・統計(2)

  • 統計的推定
    • 最尤推定

情報理論

  • 自己情報量
  • 平均情報量
  • 結合エントロピー
  • 条件付きエントロピー
  • 相互情報量
  • 相対エントロピー
  • 交差エントロピー

機械学習

機械学習(1)

  • 学習アルゴリズム
    • タスクT
    • 性能指標P
    • 経験E
  • 前処理
    • 欠損処理
    • 外れ値除去
    • 正規化
    • 標準化
    • アンダーサンプリング
    • ダミー変数化(one hot encoding)
    • バッグオブワーズ
    • 特徴選択
  • モデルの学習方法
    • ホールドアウト法
    • クロスバリデーション(K-分割交差検証)
  • 機械学習の性能評価
    • 未学習
    • 過学習
    • バイアス-バリアンス分解

機械学習(2)

  • ハイパーパラメータ探索
    • グリッドサーチ
    • ランダムサーチ
    • ベイズ最適化
  • 正則化(パラメータノルムペナルティー)
    • L2 正則化(リッジ回帰)
    • L1 正則化(ラッソ回帰)

機械学習モデル

  • 線形回帰・非線形回帰
  • ロジスティック回帰
  • K近傍法
  • SVM
  • K-means
  • 主成分分析

評価関数

  • 混同行列
  • 正解率(accuracy)
  • 適合率(precision)
  • 再現率(recall)
  • F値(F-measure)
  • 特異度(specificity)
  • 偽陽性率 (False Positive Rate、FPR)
  • ROC 曲線
  • 平均絶対誤差(Mean Absolute Error 、MAE)
  • 平均二乗誤差(Mean Squared Error 、MSE)
  • 平均二乗誤差平方根(Root Mean Squared Error 、RMSE)
  • 物体認識、物体検出で使用される評価指標
    • IoU
    • AP
    • mAP

深層学習

深層学習概要

  • ニューラルネットワーク全体像
    • 入力層
    • 中間層(隠れ層)
  • 活性化関数
    • シグモイド関数
    • ReLU 関数
    • ハイパボリックタンジェント(tanh)関数
  • 誤差逆伝搬法

最適化アルゴリズム

  • 勾配降下法
  • 確率的勾配降下法(SDG)
  • ミニバッチ勾配降下法
  • モメンタム
  • AdaGrad
  • RMSrop
  • Adam

最適化・高速化・軽量化

  • 初期値の設定方法
    • 通常
    • Xavier
    • He
  • ドロップアウト
  • Weight decay(荷重減衰)
  • 最適化戦略
    • バッチ正規化
    • Layer 正規化
    • Instance 正規化
  • 高速化
    • データ並列化
    • モデル並列化
  • 軽量化
    • 量子化
    • 蒸留
    • プルーニング

畳み込みニューラルネットワーク

  • レイヤー
    • 畳み込み層
      • ストライド
      • パディング
    • プーリング層
    • ダイレクト畳み込み
    • 転置畳み込み(transposed convolution)、逆畳み込み(Deconvolution)
  • 畳み込み層の出力画像サイズの計算
  • 物体検出
  • セマンティックセグメンテーション
  • 転移学習
  • データ拡張(Data Augmentation)
  • データセット
  • im2col

CNN 代表的なモデル

  • 物体認識モデル
    • VGG
    • GoogleNet
    • ResNet
    • DenseNet
  • 物体検出モデル
    • MobileNet
    • R-CNN
    • Faster R-CNN
    • YOLO
    • SSD
  • セマンティックセグメンテーション
    • FCN(Fully Convolutional Network)
    • SegNet
    • U-Net

再帰的ニューラルネットワーク

  • 概要
  • BPTT
  • 制度指標
    • BLEU
  • 自然言語処理
    • Word2vec

RNN 代表的なモデル

  • 時系列データ
    • LSTM
    • GRU
    • 双方向 RNN
  • 系列変換モデル
    • Seq2Seq
    • HERD
    • VHRED
    • VAE

強化学習

  • 概要
    • 探索と利用のトレードオフ
    • 強化学習のイメージ
    • 強化学習と通常の教師あり、教師なし学習との違い
    • 強化学習の歴史
    • 価値関数
    • 方策関数

強化学習 代表的なモデル

  • DQN(深層 Q ネットワーク、Deep Q-Network)
  • DCGAN

生成モデル

  • GAN
  • WaveNet
  • pix2Pix

Transformer

  • Transformer の仕組み
    • Transformer の概要
    • Attention は何をしているのか
    • Transformer の長所
    • Transformer の短所
    • 位置エンコーディング
    • 注意機構
    • 注意機構には二種類ある
      • ソース・ターゲット注意機構(Source Target Attention)
      • 自己注意機構(Self-Attention)
    • Position-Wise Feed-Forward Networks
    • Scaled dot product attention(スケール・ドットプロダクト・アテンション)
    • Multi-Head attention(マルチヘッド・アテンション)
  • 自然言語処理への応用(BERT)
    • BERT の概要
    • 事前学習とファインチューニング
    • 順伝搬層の活性化関数
    • BERT の入力と埋め込み層
    • マスク化言語モデル(MLM)
    • 事前学習
      • Feature-based
      • Fine-tuning
    • ファインチューニング
  • 画像処理への応用(ViT)
    • ViT の概要
    • 埋め込み層
    • ViT の Transformer ブロック
    • 出力層
  • 音声認識への応用(Conformer)
    • Conformer の概要
    • SpecAugment
    • Convolution Subsampling
    • Dropout
    • Feed Forward Module
    • Multi-Head Self-Attention Module
    • Convolution module
    • Pointwise Convolution
    • 1 次元 Depthwise Convolution
    • Gated Linear Unit(GLU)
    • Batch Normalization(バッチ正規化)

Discussion