OpenHands cli をローカルの ollama + gemma3 で動かしてみた(動いてなかった)

に公開

追記: これダメでした。モデル設定が反映されてませんでした。取り急ぎ。

OpenHands cli がリリースされました。Google の gemma3 も Ollama で実行できるようになったので、動かしたメモ。

まずは ollama + gemma3 をセットアップ

brew install ollama
ollama pull gemma3

ただ、gemma3 は openhands-cli 標準では使えないので、標準で使える codegeex4 を用意しておく。

ollama pull codegeex4

これだけ。続いて openhands cli を実行。

uvx --python 3.12 --from openhands-ai openhands

anthropic を使うか?と聞かれるので Select other provider を選択し、リストから ollama を選択

ollama

デフォルトのモデルを使うか?と聞かれる。ここで Select another model を選択しても、gemma3 が一覧に出てこないので意味なし。なので、デフォルトモデルを選択する。

API Key は ollama では使わないので dummy とでもしておく。

init

ちなみに、どうせ後でカスタムセッティングするのでここは何選んでもいいかも。

プロンプトに戻ったら /settings とタイプして、Advanced を選択し、モデルの設定を行う。

settings

最終的にこうなってれば OK

latest

これでローカルの ollama を使って gemma3 でエージェントを動かせる。
ちなみに、2020 年ものの M1 Mac でもギリギリ動きました。

参考

https://zenn.dev/minedia/articles/openhands-cli

Discussion