🦙
Ollama (Lllama2とかをローカルで動かすすごいやつ) をMacで動かしてみる
はじめに
Ollama (Lllama2 とかをローカルで動かすすごいやつ) をすごく簡単に使えたのでメモ。
使い方は github の README を見た。
jmorganca/ollama: Get up and running with Llama 2 and other large language models locally
ちなみに、Ollama は LangChain にも組み込まれててローカルで動くしいい感じ。
ChatOllama | 🦜️🔗 Langchain
使えるモデルは今こんな感じ。
環境はこんな感じ。
MacBook Pro 16-inch, 2021
Apple M1 Pro
Memory 16GB
Sonoma 14.0
インストール
インストールはこんな感じ。
- Ollamaにアクセスして、ダウンロード。
- アプリがダウンロードフォルダに入るので、アプリケーションフォルダに移動。
- アプリを開く。
- Mac の右上のバーにラマのアイコンが現れる。
ラマかわいい。
ちなみに、Linux 用のコマンドは使えなかった 😇
curl https://ollama.ai/install.sh | sh
ちなみに、Windows 版も Coming soon!らしい。
Docker image もあるみたい。
使い方
コマンドライン
こんな感じでコマンドラインで使える。
% ollama run llama2
>>> hello
Hello! It's nice to meet you. Is there something I can help you with or would you like to chat?
日本語は怪しい。プロンプトを工夫すればいけるのかも。
>>> こんにちは
Konnichiwa! Ogenki desu ka? (お元気ですか?) How are you today?
ブラウザ
ブラウザでlocalhost:11434にアクセスすると
Ollama is running
ってかえってくる。
API
API サーバーも動いてる。
% curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt":"Why is the sky blue?"
}'
{"model":"llama2","created_at":"2023-11-17T05:09:26.035946Z","response":"\n","done":false}
{"model":"llama2","created_at":"2023-11-17T05:09:26.065294Z","response":"The","done":false}
{"model":"llama2","created_at":"2023-11-17T05:09:26.092508Z","response":" sky","done":false}
{"model":"llama2","created_at":"2023-11-17T05:09:26.120137Z","response":" appears","done":false}
{"model":"llama2","created_at":"2023-11-17T05:09:26.14749Z","response":" blue","done":false}
{"model":"llama2","created_at":"2023-11-17T05:09:26.175Z","response":" because","done":false}
{"model":"llama2","created_at":"2023-11-17T05:09:26.202586Z","response":" of","done":false}
{"model":"llama2","created_at":"2023-11-17T05:09:26.229704Z","response":" a","done":false}
{"model":"llama2","created_at":"2023-11-17T05:09:26.256979Z","response":" phenomen","done":false}
{"model":"llama2","created_at":"2023-11-17T05:09:26.284129Z","response":"on","done":false}
API ドキュメントはここ。
ollama/docs/api.md at main · jmorganca/ollama
止め方
右上のアイコンから止める。
おわりに
LLM をローカルで動かすには、GPU とか必要なんかなと思ってたけど、サクサク動いてびっくり。
Llama 作った Meta の方々と ollama の Contributors の方々に感謝。
Discussion