🤖
ZedでローカルLLMを動かす
ZedというRustで書かれたEditorがある。
もともとOpenAIのAPIを使ってLLMの支援を受けながらコーディング可能だったが、気づいたらローカルLLMでの開発も可能となっていた。
公式ドキュメントにも記載があるがちょっとしたメモがてらここでも紹介する
前提条件
設定手順
ドキュメントに基本的に従えばいい。
- 以下の項目をsettings.jsonに追加する。
もし、通常はGitHub Copilotを使いたい場合は編集対象のディレクトリの直下に~/zed/settings.json
を作成し、ローカル設定として保存する方が良い。それ以外は~/.config/zed/settings.json
を編集してglobal設定にしてしまっても問題がない。
{
"assistant": {
"version": "1",
"provider": {
"name": "openai",
"type": "openai",
"default_model": "gpt-4-turbo-preview",
"api_url": "http://localhost:11434/v1"
}
}
}
- mistralをDownloadする
ollama run mistral
- misralをcopyして、zedで認識しているモデルにリネームする
ollama cp mistral gpt-4o
- Zedを再起動
使い方
VSCodeのGitHub Copilot Chatのように気の効いたUIがあるわけではなく、コードの説明などを求めたい時はAssitant Panelにコードの内容をコピーするか、Editor上のコマンドを使う必要がある。
Discussion