🐴

Llama 2 をDocker使ってローカルで動かす

2023/07/19に公開

Llama 2 発表!

Metaから商用利用可能なライセンスでオープンなLLMであるLlama 2が発表されました。

こりゃすごそうだけど、しばらくは様子見かなーと思っていたら、npakaさんが一瞬で動かしているではありませんか。

https://note.com/npaka/n/n0ad63134fbe2

こりゃやるしかないと、ローカルでDockerで動かしてみました。要は、npakaさんの記事の「(1) Pythonの仮想環境の準備」を詳しく書いたものです。

DockerでLlama 2を動かす

Dockerファイルは、以下リポジトリに格納してあります。
https://github.com/karaage0703/ChatLLM

セットアップ方法は、以下参照ください。Linux/Windows前提です。Mac(Apple Silicon)では残念ながら今のところ動きませんでした。 Macでも動きますが、時間が非常にかかるので実用的ではないです。

https://zenn.dev/karaage0703/articles/2b753b4dc26471

Dockerのイメージ作成(ビルド)まで実施したらOKです。

続いて量子化されたモデルllama-2-7b-chat.ggmlv3.q8_0.binをダウンロードします。

あとは、コンテナ内で以下を実行すればOKです。

root@hostname:/# cd /root
root@hostname:~# python3 llama2.py

Llama 2の動作例

動作例です。感覚的には、同じサイズの他のLLMに比べると、期待もてる印象です。結構軽いのも嬉しいですね(軽量化されていることはありますが)。

今後、小さいPCにLLMをのせれるようになったら、色々可能性広がりそうですね。

Macでの動作

一応動きますが、1分以上かかるので、実用的ではないです。

まとめ

Llama 2を動かせたのでとりあえず記事にしてみました。

参考リンク

https://speakerdeck.com/kyoun/llama-2-open-foundation-and-fine-tuned-chat-models

https://umeco.tokyo/blogs/20230714_llama2

Discussion