Open1
pytorchチュートリアル備忘録
pytorch公式チュートリアルを勉強した際の記録
3.自然言語処理
[1] TransformerとTorchTextを用いたsequence-to-sequenceモデルの学習
-
Transformer モデル
- 最近の流行
- 性能がとてもよい
- 構造が複雑
-
Attention 機構[1]
- 画像処理ではモデルに学習してほしい場所を伝える
- 効率良く、精度良く学習可能
- 自然言語処理でのAttention[2]
- 現在の発展の立役者
- 単語に重要度の重みづけを行う
- これまでの課題だった長文タスクに対応可能
- 画像処理ではモデルに学習してほしい場所を伝える
-
sequence-to-sequenceモデル[3]
- 単語列を入力して単語列を出力する
-
位置エンコーディング[4]
- 単語の位置がどこにあるのかベクトル化する操作