🔖
ローカルLLMをCursorのAIエージェントとして使用してみた
Cursorには無料枠がありますが、興味本位でローカルLLMをAIエージェントとして使用してみたかったのでやってみました
やり方は思い出しながら記載しているので、手順が抜けていたり間違っている箇所があるかもしれません
あくまで参考程度にとどめて下さい
検証環境
PC: M4 Macbook Air 2025
メモリ: 32GB
OS: MacOS 15.5
前提条件
Cursorをインストール済みであること
手順
LM Studioをインストールする
下記のリンクからソフトをダウンロードしてインストールする
AIモデルのダウンロード
LM Studioを起動して左のメニューの虫眼鏡アイコンをクリック
「Qwen3-30B-A3B 4bit」で検索をかけて下記の画像のモデルをダウンロードする
(PCのスペック次第で動くモデルが違いますので、モデル名はご自身のPCのスペックに合わせたものに変更して手順を進めて下さい)
左のメニューからターミナルアイコンをクリックし画面上部中央をクリックする
先ほどインストールしたモデルを選択しLoad Modelをクリックする
画面に赤枠の部分が追加され、READYと表示されていることを確認する
CursorとローカルLLMを連携する
Continue - open-source AI code assistanという拡張機能をCursorにインストールする
左のメニューの矢印のアイコンをクリックしてContinueを選択
モデルの選択から「Add Chat model」を選択
ProviderをLM Studio、ModelをAutodetectに変更
モデル選択で「qwen3-30-a3b-mix」を選択
使用方法
チャットの入力画面にプロンプトを入力して送信すると返答が返ってきます
返答の例(回答の内容が正しいかは検証してません)
参考サイト
Discussion