Open2
Roo Cline+LM StudioでいまどきのローカルLLMエージェントを動かしてみる
-
とりあえずVS CodeでRoo Code(旧Roo Cline)をプラグインをインストール
-
brewでLM Studioをインストール
brew install lm-studio
-
LM Studioを起動してモデルをダウンロードする。
おすすめが調べてもようわからんかったが、deepseek-r1-distill-qwen-14b-japaneseにする。
Searchタブですげえいっぱい出てくるが、Likeが多いやつを信じることにした -
VS CodeのRoo Codeを設定する。
-
API ProviderでLM Studioを選択。ローカルで動かしてるならホストはそのまま。
-
Roo Codeはそれなりにトークンを使うので、デフォルトだとコンテキストサイズが足りないと怒られる。なので、LM Studioのモデル別設定でコンテキストサイズをとりあえず16384まで増やした。
1 .MacBook Pro 2021 M1 Maxでも、ローカルでLM Studioを動かすと14bでも結構遅い。なので試しにゲームマシンのRTX3090搭載機でWindows版のLM Studioをインストールして同じモデルをダウンロード
-
LM Studioはデフォルトだとローカルマシンしか繋がらないので、Developerタブで
Serve on Local Networkをオンにする

-
VS Code上のRoo Codeの設定でBase URLをWindowsマシンにする(デフォルトのポートは1234)
-
早い!