🦙

Raspberry Pi(ラズパイ)のローカル環境でLLMを動かす

2024/05/01に公開

ラズパイでLLM

普通にローカル動きました。Raspberry Pi 5です。DockerでOllamaを動かしています。簡単にメモします。

ラズパイのセットアップ

以下でラズパイの基本的なセットアップをします。

https://zenn.dev/karaage0703/articles/8fe578dba4857a

Dockerをセットアップします。
https://zenn.dev/karaage0703/articles/72db4c99258469

Ollamaセットアップ

続いてOllamaをセットアップします。ラズパイでDockerを使えば、以下コマンドを実行するだけでOllamaをインストールできます。

$ docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

2回目以降、うまく起動しない場合は、以下コマンドでコンテナを削除してください。

$ docker stop $(docker ps -q)
$ docker rm $(docker ps -q -a)

Ollamaに関しては以下記事を参照してください。
https://zenn.dev/karaage0703/articles/c271ca65b91bdb#ollama-%2B-open-webuiでgui付きで動かす方法

Ollamaの起動

以下コマンド実行すると、OllamaがLlama 3というモデルをダウンロードして起動します。

$ docker exec -it ollama ollama run llama3

以下動いている様子です。
https://twitter.com/karaage0703/status/1785583415150207107

Tanuki-8Bを動かす

日本語LLMのTanuki-8B、7shiさん量子化してくださったモデルでラズパイで動きました。Raspberry Pi 5(8GB)です。

以下コマンドでモデルをダウンロードして実行しています。

$ docker exec ollama ollama pull 7shi/tanuki-dpo-v1.0:8b-iq3_XXS
$ docker exec -it ollama ollama run 7shi/tanuki-dpo-v1.0:8b-iq3_XXS

https://x.com/karaage0703/status/1831592489863774545

まとめ

ラズパイでLLM動かしてみました。ラズパイでもローカルでLLMがそのうち動くようになるだろうなーと思っていましたが、いつの間にかあっさり動くようになっていました。

まだ速度や性能面で実用性は低そうですが、今後新しい軽いモデルが出てきたら色々な用途で使えるかもしれませんね。

参考リンク

以下の動画がすべてのきっかけです
もりしーさんの動画

https://blog.gopenai.com/harnessing-ai-at-the-edge-building-a-rag-system-with-ollama-qdrant-and-raspberry-pi-45ac3212cf75

https://uepon.hatenadiary.com/entry/2024/08/19/113435

関連記事

https://zenn.dev/karaage0703/articles/2b753b4dc26471

変更履歴

  • 2024/09/05 Tanuki-8Bモデルの動かし方追記

Discussion