Open2

Roo Cline+LM StudioでいまどきのローカルLLMエージェントを動かしてみる

Yamamoto Yuji / はまあYamamoto Yuji / はまあ
  1. とりあえずVS CodeでRoo Code(旧Roo Cline)をプラグインをインストール

  2. brewでLM Studioをインストール

brew install lm-studio
  1. LM Studioを起動してモデルをダウンロードする。
    おすすめが調べてもようわからんかったが、deepseek-r1-distill-qwen-14b-japaneseにする。
    Searchタブですげえいっぱい出てくるが、Likeが多いやつを信じることにした

  2. VS CodeのRoo Codeを設定する。

  3. API ProviderでLM Studioを選択。ローカルで動かしてるならホストはそのまま。

  4. Roo Codeはそれなりにトークンを使うので、デフォルトだとコンテキストサイズが足りないと怒られる。なので、LM Studioのモデル別設定でコンテキストサイズをとりあえず16384まで増やした。

Yamamoto Yuji / はまあYamamoto Yuji / はまあ

1 .MacBook Pro 2021 M1 Maxでも、ローカルでLM Studioを動かすと14bでも結構遅い。なので試しにゲームマシンのRTX3090搭載機でWindows版のLM Studioをインストールして同じモデルをダウンロード

  1. LM Studioはデフォルトだとローカルマシンしか繋がらないので、DeveloperタブでServe on Local Networkをオンにする

  2. VS Code上のRoo Codeの設定でBase URLをWindowsマシンにする(デフォルトのポートは1234)

  3. 早い!