AI界を席巻する「Transformer」をゆっくり解説(7日目) ~Training編~
AI界を席巻する「Transformer」を解説するシリーズ7日目です。
Attention Is All You Needの論文PDFはこちら
- 1日目: Abstract
- 2日目: Introduction / Background
- 3日目: Model Architecture 1
- 4日目: Model Architecture 2
- 5日目: Model Architecture 3
- 6日目: Why Self-Attention
- 7日目: Training
- 8日目: Results / Conclusion
- 9日目: Source Code
シリーズ過去記事は一番下にリンク貼ってます。
それでは早速みていきましょう。
5 Training
This section describes the training regime for our models.
本章は、Training、学習方法についてです。
5.1 Training Data and Batching
We trained on the standard WMT 2014 English-German dataset consisting of about 4.5 million sentence pairs.
約450万の文章ペアからなる、標準的なWMT 2014英独データセットで学習しました。
WMT 2014はいまいち見つかりませんでしたが、2016ならありました。
そのデータの説明は下記。
Data for the WMT'16 Translation Task English to German. Training data is combined from Europarl v7, Common Crawl, and News Commentary v11. Development data sets include newstest[2010-2015]. newstest2016 should serve as test data. All SGM files were converted to plain text.
このサイトを見ると、このデータセットはGoogleが提供しているようで、GoogleがGithubにあげたSeq2Seqモデルで使われているデータのようです。Europarlはよくわかりませんでしたが、WEBをクロールしたデータや、ニュースで使われた文章などで構成されているようです。言語も移り変わっていくものであることを加味しているのか、2010年から2016年くらいまでのデータで構成されているようです。
Sentences were encoded using byte-pair encoding [3], which has a shared sourcetarget vocabulary of about 37000 tokens.
文章はByte-Pairモデルを使って、ベクトルにエンコード=変換されており、37,000トークンの語彙が収録されているとのこと。
For English-French, we used the significantly larger WMT 2014 English-French dataset consisting of 36M sentences and split tokens into a 32000 word-piece vocabulary [38].
英語-フランス語については,3600万の文章ペアからなる、英独に比較して非常に大規模なWMT 2014 English-Frenchデータセットを使用した。トークンは32,000語の単語に分割して使用した。
だから英独翻訳に比較して、英仏翻訳に関して、BLEUスコアが大幅に高かったのかもしれません。
Sentence pairs were batched together by approximate sequence length.
文章ペアは、だいたいは、その文章の配列の長さに応じて、バッチにまとめた。
Each training batch contained a set of sentence pairs containing approximately 25000 source tokens and 25000 target tokens.
1つ1つの学習データのバッチは、色々な文章ペアからできていて、だいたい25,000の翻訳前後の単語トークンで出来ている。
5.2 Hardware and Schedule
We trained our models on one machine with 8 NVIDIA P100 GPUs.
学習に使用したGPUは、NVIDIA製のP100 GPUを8個使用した。
ここはシリーズの以前の回でもご紹介しましたので、割愛します。正確にはわかりませんが、640万円分くらいのお値段がした可能性があります・・・
For our base models using the hyperparameters described throughout the paper, each training step took about 0.4 seconds.
本論文で紹介したハイパーパラメータを使ったベースモデルに関して、学習にかかった計算時間は、1ステップがだいたい0.4秒。
We trained the base models for a total of 100,000 steps or 12 hours.
その0.4秒かかる1ステップを10万回、時間にして12時間行った。
For our big models,(described on the bottom line of table 3), step time was 1.0 seconds.
表3の一番下の行で示すようなBig Modelでは、1ステップの計算時間は1秒だった。
The big models were trained for 300,000 steps
(3.5 days).
このBig Modelでは、30万ステップの計算を行い、3.5日かかった。
当時の超高性能なNVIDIA製のGPUを8個使ったら、このくらいの計算時間だった、ということです。余談ですが、2021年現在ではGoogleやSonyがこういった高性能なGPUを使えるサービスを無料で公開してたりします。
このあたりは、わたしもせっかくなので、実証実験をかねて使ってみたら、また紹介したいと思います。ご要望があれば順番を早めるので、Twitterやコメント欄等どこでもいいので教えてください。
5.3 Optimizer
We used the Adam optimizer [20] with
, β_1 = 0.9 and β_2 = 0.98 . \epsilon = 10^{-9}
Optimizer(最適化アルゴリズムのこと)にはAdamを使った。パラメータには、
パラメータの説明はKerasにも載ってますが、結局は本家の論文から来ています。
Adamはよく使われる最適化アルゴリズムの1つで、説明は省きますが、詳しくは下記該当論文にもあります。もちろんたくさん記事も出ていますし、本でもよく紹介されているアルゴリズムです。
We varied the learning rate over the course of training, according to the formula:
また、Learning Rate(学習率)は下記の数式にのっとって、学習をしながら変えていった。
This corresponds to increasing the learning rate linearly for the first warmup_steps training steps, and decreasing it thereafter proportionally to the inverse square root of the step number.
この数式が意味するところは、最初の学習時のステップをウォームアップ・ステップと定義していて、その間は線形的にリニアに学習率が上がっていくが、その後ステップ数の逆平方根に比例して減っていく動きを意味しています。
We used
. warmup\_steps = 4000
ウォームアップ・ステップ数には4,000を使った。
この数式がぱっと見てわからないので数字を代入していきます。
実際に、この非線形な数式のグラフを描いてみます。
確かに、計算ステップがウォームアップ・ステップ=4000までは学習率がぐーっと上がっていきますが、それ以降は徐々に下がっていくような数式になっています。
学習率は値が大きいほど、どんどん学習する、つまり今回のAdamという最適化アルゴリズムが、モデルを最適化する過程でどのくらいパラメータを大胆に動かすのか、という数字で、ウォームアップ期間中は大胆に動かしていくことがわかります。ウォームアップ開始直後はそもそもパラメータを動かす意味があまりないから?なのか0から垂直スタートさせるようです。
ウォームアップが終わると、徐々にパラメータの動かし方を繊細にしていって、その分パラメータが動きにくくなるけど、正解に近づいていくであろうという目論見の元、微調整に変えていく、というイメージだとわかりやすいかもしれません。
5.4 Regularization
正規化について、です。
We employ three types of regularization during training:
学習時の正規化には、3種類用いた。
Residual Dropout We apply dropout [33] to the output of each sub-layer, before it is added to the sub-layer input and normalized.
図には載ってませんが、1種類目は、それぞれのMulti-Head Attentionなどのサブレイヤーの出力に対して、その出力が次のAdd & Normレイヤーに残差接続される前に、Dropoutレイヤーを入れた。
In addition, we apply dropout to the sums of the embeddings and the positional encodings in both the encoder and decoder stacks.
2種類目は、文章の単語をベクトル化したものに、位置エンコーディングを加算した出力に対して、Dropoutレイヤーを入れた。これはEncoderとDecoderの積み上げの両方に対して行った。
For the base model, we use a rate of
. P_{drop} = 0.1
ベースモデルに関して言えば、Dropoutレイヤーのドロップ率は
ドロップ率とは、過学習を防ぐために提案された手法で、ドロップ率に応じて、実際にデータをドロップさせて、失わさせて、次に渡さない、つまり忘れるような動きを行うことで、今の学習データを過学習して、過剰に適用してしまい、汎用性を失うことを防ぐ工夫です。
下記の記事はわかりやすかったです。
Label Smoothing During training, we employed label smoothing of value
[36]. \epsilon_{ls} = 0.1
学習時のLabel Smoothingは、
これは一般的によく使われる値です。Label Smoothingとは、これも過学習を防ぐ仕組みや工夫の1つです。普通に考えると、例えば、0~9の手書き文字なんかは、どれだけ手書きの文字が汚くても一応正解がデータ上は必ずあります。でも現実世界では、実際書いた人にとっては正解は1つで、例えばそれは5かもしれないですが、見る人にとっては、3にも見えるし、2にも見える、なんてこともあります。
これに対して、Label Smoothingは、意図的に正解であるのが例えば5だとしても、その確率を100%=1.0ではなくて0.9とおいて、残った0.1の確率を均等にほかの数字である可能性としてまいておく、という考え方です。これをすると過学習が防がれ、実際の学習データにない推論時においても、汎用性をもって適用することができると経験的に知られています。
人間でいう、柔軟性、みたいなところでしょうか。
こちらの記事もわかりやすかったです。
This hurts perplexity, as the model learns to be more unsure, but improves accuracy and BLEU score.
これはモデルが曖昧さを学ぶことになり、実際、BLEUスコアは上がります。
おわり
AI界を席巻する「Transformer」を解説するシリーズ6日目は以上です。今までの章でも語られてきた内容の復習的なことも多かったですね。次回はTrainingです。
感想や要望・指摘等は、本記事へのコメントか、TwitterのリプライやDMでもお待ちしております!
また、結構な時間を費やして書いていますので、投げ銭・サポートの程、よろしくお願いいたします!
シリーズ関連記事はこちら
【2023年5月追記】
また、Slack版ChatGPT「Q」というサービスを開発・運営しています。
こちらもぜひお試しください。
Discussion