🦙

Raspberry Pi(ラズパイ)のローカル環境でLLMを動かす

2024/05/01に公開

ラズパイでLLM

普通にローカル動きました。Raspberry Pi 5です。DockerでOllamaを動かしています。簡単にメモします。

ラズパイのセットアップ

以下でラズパイの基本的なセットアップをします。

https://zenn.dev/karaage0703/articles/8fe578dba4857a

Dockerをセットアップします。
https://zenn.dev/karaage0703/articles/72db4c99258469

Ollamaセットアップ

続いてOllamaをセットアップします。ラズパイでDockerを使えば、以下コマンドを実行するだけでOllamaをインストールできます。

$ docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Ollamaに関しては以下記事を参照してください。
https://zenn.dev/karaage0703/articles/c271ca65b91bdb#ollama-%2B-open-webuiでgui付きで動かす方法

Ollamaの起動

以下コマンド実行すると、OllamaがLlama 3というモデルをダウンロードして起動します。

$ docker exec -it ollama ollama run llama3

以下動いている様子です。
https://twitter.com/karaage0703/status/1785583415150207107

まとめ

ラズパイでLLM動かしてみました。ラズパイでもローカルでLLMがそのうち動くようになるだろうなーと思っていましたが、いつの間にかあっさり動くようになっていました。

まだ速度や性能面で実用性は低そうですが、今後新しい軽いモデルが出てきたら色々な用途で使えるかもしれませんね。

参考リンク

以下の動画がすべてのきっかけです
もりしーさんの動画

関連記事

https://zenn.dev/karaage0703/articles/2b753b4dc26471

Discussion