🐳
MacローカルでCline+ローカルDeepSeek-R1を動かす(Ollama+WebUI) 🚀
概要 ✨
この記事では、Macローカル環境で以下を実現する方法を解説します:
💻 Cline を使ったローカル開発環境の構築
🤖 Ollama+DeepSeek-R1モデル を活用したAI運用
🌐 WebUI を Docker 経由で簡単にセットアップ
M1やM4のMacで安全かつ効率的にAIを活用するための具体的な手順を網羅しました!設定が完了すれば、ローカル環境だけで高機能なAIを安全に楽しめます 🎉
ぜひ、このガイドを参考に自分だけのAI運用環境を構築してみてください 🚀
環境 🛠️
OS: macOS Sequoia 15.2
マシン:
MacStudio M1 Max / RAM 32GB
MacMini M4 Pro / RAM 64GB
ollamaモデル:deepseek-r1:14b
(このマシンで32bはキツイ😓)
Ollama+WebUIの準備 🧩
1. Ollamaのインストール
- macos向けをダウンロード
https://ollama.com/download - 解凍したら、アプリケーションフォルダへ
- Ollamaを起動する
- ターミナルで、ollama コマンドが使えるのを確認する
ollama --version
2. DeepSeek-R1を動かす
-
モデルはdeepseek-r1:14bを使用する(環境に合わせてお好みで)
https://ollama.com/library/deepseek-r1:14b -
起動する
ollama run deepseek-r1:14b
-
次のメッセージが出たら起動完了(初回は9GB程度のダウンロードに少し時間がかかる)
verifying sha256 digest writing manifest success >>> end a message (/? for help)
-
ターミナル上で deepseek-r1 と会話ができる
-
会話を終了する
>>> /bye
3. WebUIを動かす
- Dockerのインストール既にインストール済みの場合は、次へ
brew install --cask docker
- Dockerを起動する
- Open WebUI Imageを取得
https://docs.openwebui.com/getting-started/quick-start/少し時間がかかるdocker pull ghcr.io/open-webui/open-webui:main
- Dockerのコンテナを起動
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
- Dockerのプロセス起動を確認する
docker ps
- ブラウザに移動して開く(初回登録あり)
http://localhost:3000/auth
Open WebUI 外部接続を行わず、データはローカルでホストされているサーバー上に安全に保持されます。 - 起動したら完了!
Clineの準備 🖥️
1. VSCodeのインストール
- macos向けをダウンロード
https://code.visualstudio.com/download
既にインストール済みの場合は、次へ
2. Clineのインストール
- VSCodeを開く
- 拡張機能パネルを開く(左側にある四角形が並んだアイコン(拡張機能アイコン)をクリック)
- 拡張機能パネルの検索バーに「Cline」と入力して検索
- インストールボタンをクリックして完了 ✅
2. ClineにOllamaのDeepSeekモデルを登録
- Clineを開く
- API Providerで Ollamaを選択
- Base URLはデフォルト(未入力)でOK
- Model IDに Ollamaで使用するモデルを入力
今回は deepseek-r1:14b を使用 - Let’s Go ボタンをクリックで開始! 🎉
締めくくり 🎯
ここまでお疲れ様でした!👏 今回の手順を完了することで、Macローカル環境で Cline+DeepSeek-R1モデル を活用し、Ollama+WebUI を駆使したパワフルなAI活用が可能になります 💡
もし設定中に困ったことがあれば、公式ドキュメントやコミュニティフォーラムを活用してください 🌍
また、このガイドが役立った場合は、ぜひSNSでシェアやコメントをいただけると励みになります 📢✨
それでは、素晴らしいAI活用ライフを楽しんでください!🚀
Discussion