📌

【LLM】 学習のステップ

2024/01/10に公開

基本的な学習の流れ

言語モデルの学習は、主に二つの段階があり、それが事前学習とファインチューニングになる。

【STEP1】事前学習(Pre-training)

事前学習
・(ゼロから)大量のラベルがついていないコーパスで学習

事前トレーニング用のタスクを使う。(MLM(Masked Language Model)やNSP(Next Sentence Prediction)を利用)

追加事前学習(Further pre-training)/継続事前学習(Continual pre-training)
事前学習したモデルをさらに追加で事前学習を行う。

https://aclanthology.org/2020.acl-main.740.pdf
・DAPT(domain-adaptive pre-training)
⇨ラベリングされていない(タスクと同様の)ドメインのテキストで追加事前学習
⇨論文によれば、ターゲットとなるタスクのドメインのデータセットでDAPTを実施しないと精度が悪化する。(ターゲットのドメインが特定されない段階ではやるべきではないか?)

・TAPT: ask-adaptive pre-training
⇨タスクのデータセットにあるラベルなしデータで追加事前学習

【STEP2】ファインチューニング(Fine-Tuning)

・特定のタスクに特化させるために、ファインチューニングを実施する。
https://zenn.dev/timoneko/articles/bb108fa971e6ae

ファインチューニングされた後のモデルをfinetuned modelと呼ぶ。

流れ

パターン1

モデル
↓ 事前学習
事前学習済みモデル(PLM)
↓ファインチューニング
finetuned model

パターン2

モデル
↓ 事前学習
PLM
↓ 追加事前学習
PLM
↓ファインチューニング
finetuned model

Discussion