Open2

TinySwallow関連の情報

bilzardbilzard

Sakana AIによる公式デモ:

そして、TAIDを用いて32BパラメータのLLMから約1/20の大きさの1.5Bパラメータの小規模言語モデルへ知識転移を行い、同規模のモデルの中で最高性能となる日本語モデル「TinySwallow-1.5B」を作り出すことに成功しました。 小規模サイズである「TinySwallow-1.5B」は、外部APIなどを介さずお手元のスマートフォンやPCで完結したチャットが可能です。下記のウェブアプリのリンクから、ブラウザ上で動作するチャットアプリをお試しいただけます。

GGUF

  • Q5:
  • Q8: 14.75 tps

Transformers.jsにより2倍高速化した(~50 tokens/sec):