🔖

ローカルLLMをCursorのAIエージェントとして使用してみた

に公開

Cursorには無料枠がありますが、興味本位でローカルLLMをAIエージェントとして使用してみたかったのでやってみました
やり方は思い出しながら記載しているので、手順が抜けていたり間違っている箇所があるかもしれません
あくまで参考程度にとどめて下さい

検証環境

PC: M4 Macbook Air 2025
メモリ: 32GB
OS: MacOS 15.5

前提条件

Cursorをインストール済みであること

手順

LM Studioをインストールする

下記のリンクからソフトをダウンロードしてインストールする
https://lmstudio.ai/

AIモデルのダウンロード

LM Studioを起動して左のメニューの虫眼鏡アイコンをクリック

「Qwen3-30B-A3B 4bit」で検索をかけて下記の画像のモデルをダウンロードする
(PCのスペック次第で動くモデルが違いますので、モデル名はご自身のPCのスペックに合わせたものに変更して手順を進めて下さい)

左のメニューからターミナルアイコンをクリックし画面上部中央をクリックする

先ほどインストールしたモデルを選択しLoad Modelをクリックする

画面に赤枠の部分が追加され、READYと表示されていることを確認する

CursorとローカルLLMを連携する

Continue - open-source AI code assistanという拡張機能をCursorにインストールする

左のメニューの矢印のアイコンをクリックしてContinueを選択

モデルの選択から「Add Chat model」を選択

ProviderをLM Studio、ModelをAutodetectに変更

モデル選択で「qwen3-30-a3b-mix」を選択

使用方法

チャットの入力画面にプロンプトを入力して送信すると返答が返ってきます

返答の例(回答の内容が正しいかは検証してません)

参考サイト

https://note.com/genaird/n/n52f93fe99734
https://qiita.com/notfolder/items/e6944da9a05e662e582c

Discussion