✨
OpenHands cli をローカルの ollama + gemma3 で動かしてみた(動いてなかった)
追記: これダメでした。モデル設定が反映されてませんでした。取り急ぎ。
OpenHands cli がリリースされました。Google の gemma3 も Ollama で実行できるようになったので、動かしたメモ。
まずは ollama + gemma3 をセットアップ
brew install ollama
ollama pull gemma3
ただ、gemma3 は openhands-cli 標準では使えないので、標準で使える codegeex4
を用意しておく。
ollama pull codegeex4
これだけ。続いて openhands cli を実行。
uvx --python 3.12 --from openhands-ai openhands
anthropic
を使うか?と聞かれるので Select other provider
を選択し、リストから ollama
を選択
デフォルトのモデルを使うか?と聞かれる。ここで Select another model
を選択しても、gemma3
が一覧に出てこないので意味なし。なので、デフォルトモデルを選択する。
API Key は ollama では使わないので dummy
とでもしておく。
ちなみに、どうせ後でカスタムセッティングするのでここは何選んでもいいかも。
プロンプトに戻ったら /settings
とタイプして、Advanced
を選択し、モデルの設定を行う。
最終的にこうなってれば OK
これでローカルの ollama を使って gemma3 でエージェントを動かせる。
ちなみに、2020 年ものの M1 Mac でもギリギリ動きました。
参考
Discussion