🕌

ローカルMacでAIを動かす(Ollama + GUI)

に公開

ローカルMacでAIを動かす(Ollama + GUI)

注意書き:以下は自分とAIとの対話形式で作業を行なったものを、AIにまとめてもらったものです。

この記事では、Mac上でローカル実行型AIを動かす方法として
OllamaとGUIツールを組み合わせる手順を紹介します。
※本記事では一般的なモデルを例にしています。


1. OllamaとGUIの準備(初回セットアップ)

1-1. Ollamaのインストール

Ollamaは、ローカルPC上で大規模言語モデル(LLM)を実行できる環境です。
macOSではHomebrewで簡単にインストールできます。

brew install ollama

インストール後、Ollamaのサーバを起動します。

ollama serve

1-2. GUIの準備(Open WebUI)

Ollama自体はCLI操作が基本ですが、GUIを使うとモデル切替や会話履歴管理が便利になります。
ここではOSSの「Open WebUI」を使用します。

Dockerで起動

docker run -d -p 3000:8080   -v openwebui:/app/backend/data   --name openwebui   --restart unless-stopped   ghcr.io/open-webui/open-webui:main

起動後、ブラウザで
http://localhost:3000
にアクセスし、設定画面からOllama接続先を http://host.docker.internal:11434 に設定します。


2. モデルの起動方法

CLIで直接動かす

ollama run llama3

上記コマンドで対話モードに入り、プロンプトを入力できます。
終了は Ctrl + D または /bye

ワンショットで実行したい場合は引数に直接プロンプトを渡します。

ollama run llama3 "こんにちは、自己紹介してください"

3. モデルの変更方法

モデル一覧の確認(ローカル)

ollama list

新しいモデルの取得

Ollama公式ライブラリにあるモデル名を指定して取得します。
例:llama3

ollama pull llama3

切り替えて実行

ollama run llama3

まとめ

  • Ollamaを使えば、Mac上でローカルAIモデルを実行可能
  • Open WebUIなどのGUIを組み合わせると操作が直感的に
  • モデルは用途に合わせて ollama pull で簡単に変更可能

ローカル環境ならネット接続不要で動作し、
プライバシーやレスポンス速度の面でもメリットがあります。
まずは軽量モデルから試し、環境に合わせてモデルサイズを調整してみてください。

あとがき

以下はAIの文章ではないです。

私個人としてChatGPTにPlusを契約して数ヶ月使っており欠かせないレベルになっています。
業務でも会社がガイドラインを設定してAIツールを使えるようになっており、ますます業務での活用が進む中、ローカルで動くAIというのも、まとめで記載されている観点から必須レベルになると今回のハンズオンで思わされました。
ただ、私は帰省先で実行したためMBAを使いましたが、マシンパワー不足を痛感させられました(泣)
自分でローカルでAIを立てるとそれ相応のスペックやメンテナンスコストが必要になり、立てない場合は各AIサービスの利用料がかかるためトレードオフですね。

Discussion