😽

MacでローカルLLMを使う:OllamaとVSCode設定

2024/08/18に公開

はじめに

この記事では、MacでローカルLLM(大規模言語モデル)を使うための環境設定を解説します。OllamaとVisual Studio Code(VSCode)を使って、効率的な開発環境を作る手順を紹介します。

動作環境

  • Mac(例:Mac mini、Apple M2 pro、メモリ16GB)
  • エディタ:Visual Studio Code(VSCode)

Ollamaのインストール

  1. Ollamaの公式サイトからインストーラーをダウンロード。
  2. Homebrewユーザーは、次のコマンドでもインストール可能:
    brew install ollama
    

ローカルLLMの準備と使用

  1. Ollamaのライブラリから好みのモデルを選びます。
  2. ここではgemma2:9bモデルを例に説明します。
  3. モデルのダウンロードと起動:
    ollama run gemma2:9b
    
  4. 対話を終了するには、Ctrl + d/byeコマンドを入力。

よく使うコマンド

  • モデル一覧表示:ollama list
  • モデルのダウンロードと起動:ollama run モデル名
  • モデルのダウンロードのみ:ollama pull モデル名
  • モデルの削除:ollama rm モデル名

VSCodeの準備

  1. まだVSCodeを持っていない場合は、公式サイトからダウンロード。

VSCode拡張機能「Continue」の追加

  1. VSCodeを開き、拡張機能タブへ。
  2. 「Continue」を検索。
  3. Continue拡張機能をインストール。

VSCodeとOllamaの連携

  1. VSCodeで「Select model」を選択。
  2. 「Add Model」を選択。
    モデル選択
  3. 「ollama」を選択。
    Ollama選択
  4. 「Autodetect」を選択。
    Autodetect選択
  5. 「Ollama - gemma2:9b」と表示されれば設定完了。
    連携完了
  6. 動作確認
    入力欄に「献立メニューを一週間分考えてください。」と入力すると画像のように献立を出力してくれます
    VSCodeでのOllama使用例

まとめ

これで、MacにOllamaを使ったローカルLLM環境とVSCodeの開発環境が整いました。
この設定により:

  • プライバシーを守りながら高度な言語モデルが使えます。
  • インターネット接続なしで、安全にデータを扱えます。
  • VSCodeとContinue拡張機能で、コーディングの効率が上がります。
  • エディタ内で直接AIアシスタントが使え、開発がスムーズになります。
  • 必要に応じて簡単にモデルを切り替えられます。

この環境を使って、より効率的で創造的な開発を行ってください。

Discussion