ローカルMacでAIを動かす(Ollama + GUI)
ローカルMacでAIを動かす(Ollama + GUI)
注意書き:以下は自分とAIとの対話形式で作業を行なったものを、AIにまとめてもらったものです。
この記事では、Mac上でローカル実行型AIを動かす方法として
OllamaとGUIツールを組み合わせる手順を紹介します。
※本記事では一般的なモデルを例にしています。
1. OllamaとGUIの準備(初回セットアップ)
1-1. Ollamaのインストール
Ollamaは、ローカルPC上で大規模言語モデル(LLM)を実行できる環境です。
macOSではHomebrewで簡単にインストールできます。
brew install ollama
インストール後、Ollamaのサーバを起動します。
ollama serve
1-2. GUIの準備(Open WebUI)
Ollama自体はCLI操作が基本ですが、GUIを使うとモデル切替や会話履歴管理が便利になります。
ここではOSSの「Open WebUI」を使用します。
Dockerで起動
docker run -d -p 3000:8080 -v openwebui:/app/backend/data --name openwebui --restart unless-stopped ghcr.io/open-webui/open-webui:main
起動後、ブラウザで
http://localhost:3000
にアクセスし、設定画面からOllama接続先を http://host.docker.internal:11434
に設定します。
2. モデルの起動方法
CLIで直接動かす
ollama run llama3
上記コマンドで対話モードに入り、プロンプトを入力できます。
終了は Ctrl + D
または /bye
。
ワンショットで実行したい場合は引数に直接プロンプトを渡します。
ollama run llama3 "こんにちは、自己紹介してください"
3. モデルの変更方法
モデル一覧の確認(ローカル)
ollama list
新しいモデルの取得
Ollama公式ライブラリにあるモデル名を指定して取得します。
例:llama3
ollama pull llama3
切り替えて実行
ollama run llama3
まとめ
- Ollamaを使えば、Mac上でローカルAIモデルを実行可能
- Open WebUIなどのGUIを組み合わせると操作が直感的に
- モデルは用途に合わせて
ollama pull
で簡単に変更可能
ローカル環境ならネット接続不要で動作し、
プライバシーやレスポンス速度の面でもメリットがあります。
まずは軽量モデルから試し、環境に合わせてモデルサイズを調整してみてください。
あとがき
以下はAIの文章ではないです。
私個人としてChatGPTにPlusを契約して数ヶ月使っており欠かせないレベルになっています。
業務でも会社がガイドラインを設定してAIツールを使えるようになっており、ますます業務での活用が進む中、ローカルで動くAIというのも、まとめで記載されている観点から必須レベルになると今回のハンズオンで思わされました。
ただ、私は帰省先で実行したためMBAを使いましたが、マシンパワー不足を痛感させられました(泣)
自分でローカルでAIを立てるとそれ相応のスペックやメンテナンスコストが必要になり、立てない場合は各AIサービスの利用料がかかるためトレードオフですね。
Discussion