Open2
【LLM Tips/ML Tips】LLMのパラメーターについて📝

LLMのパラメーターについて📝
LLM(大規模言語モデル)のサイズで使われる「14B」や「32B」の「B」は「Billion(10億)」を意味します。これは、モデルが持つ**パラメータ(parameter)**の数を表しています。具体的には:
- 14B = 140億個のパラメータ
- 32B = 320億個のパラメータ
パラメータとは?
パラメータは、モデルが学習を通じて調整する内部の数値(重みやバイアスなど)で、モデルがタスクを処理するための「知識」や「能力」を構成する要素です。パラメータ数が多いほど、モデルはより多くの情報を保持し、複雑なパターンやタスクを処理できる可能性が高くなります。ただし、計算リソース(メモリや処理能力)の要求も増えます。
例
- 14Bモデル:140億のパラメータを持つモデル。比較的軽量で、効率的に動作するが、超大型モデルに比べると性能がやや劣る場合がある。
- 32Bモデル:320億のパラメータを持つモデル。より高い性能を発揮するが、実行にはより多くの計算リソースが必要。
注意点
- パラメータ数だけでモデルの性能を判断するのは難しい。モデルのアーキテクチャ、学習データの質、トレーニング方法なども大きく影響します。
- 一般的に、大きいモデル(Bが多い)は、より高度な推論や生成能力を持つ傾向がありますが、運用コストも高くなります。

LoRAについて📝
LoRA(ローラ)とは、AIモデルの効率的な調整を可能にする技術で、特に大規模言語モデルや画像生成AIで注目されています。
LoRAはLow-Rank Adaptationの略で、モデル全体のパラメータを調整するのではなく、一部のパラメータを学習対象とすることで、計算コストを抑えつつ、特定のスタイルやタスクに素早く適応させることができます。