📌
【LLM】 学習のステップ
基本的な学習の流れ
言語モデルの学習は、主に二つの段階があり、それが事前学習とファインチューニングになる。
【STEP1】事前学習(Pre-training)
◇事前学習
・(ゼロから)大量のラベルがついていないコーパスで学習
事前トレーニング用のタスクを使う。(MLM(Masked Language Model)やNSP(Next Sentence Prediction)を利用)
◇ 追加事前学習(Further pre-training)/継続事前学習(Continual pre-training)
事前学習したモデルをさらに追加で事前学習を行う。
⇨ラベリングされていない(タスクと同様の)ドメインのテキストで追加事前学習
⇨論文によれば、ターゲットとなるタスクのドメインのデータセットでDAPTを実施しないと精度が悪化する。(ターゲットのドメインが特定されない段階ではやるべきではないか?)
・TAPT: ask-adaptive pre-training
⇨タスクのデータセットにあるラベルなしデータで追加事前学習
【STEP2】ファインチューニング(Fine-Tuning)
・特定のタスクに特化させるために、ファインチューニングを実施する。
ファインチューニングされた後のモデルをfinetuned modelと呼ぶ。
流れ
パターン1
モデル
↓ 事前学習
事前学習済みモデル(PLM)
↓ファインチューニング
finetuned model
パターン2
モデル
↓ 事前学習
PLM
↓ 追加事前学習
PLM
↓ファインチューニング
finetuned model
Discussion