🐷
10分で動かすローカルLLM(Mac×Docker×Ollama×DeepSeek)
はじめに
ただのフロントエンドエンジニアがDeepSeekをMacで動かした備忘録です。
なお、各手順は公式READMEを参考にしております。
実行環境
- Mac mini M4チップ 32GBメモリ
- macOS Sequoia 15.3.1
環境構築
-
事前準備
- Docker Desktopのインストールと起動
- 設定で、Resource AllocationのMemory Limitを大きめの値に変更(本検証では24GBにしました)
-
Ollamaの環境構築
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
-
Ollamaの実行
docker exec -it ollama ollama run deepseek-r1
※ 実行できるモデルはこちらを確認してください。
実行結果
deepseek-r1 7Bモデル
% docker exec -it ollama ollama run deepseek-r1
>>> Difyって何?
<think>
</think>
「Dify」は、 Techcoin .inc という名前で提供されるAIを用いたサービスです。Techcoin..inc は、AIを活用した多様なツールやサービスを提供している seemot が主な業界です。具体的に「Dify」は、Deep
Learningを用いた言語モデルを basis にしたオンライン学習プラットフォームや/businesS プLATFORM someway service 等各种AIを活用したサービス似乎是です。
Techcoin. inc が提供する「Dify」は、具体的な features や機能は以下の link などを参考に最好です。
>>> Send a message (/? for help)
お!
deepseek-r1 14Bモデル
% docker exec -it ollama ollama run deepseek-r1:14b
>>> Difyって何?
<think>
</think>
"Dify" は、AI エンジニアである Yusuke Yasuda氏が開発した日本語での「Diffusion」を活用した画像生成モデルです。 Diffusion モデルは、ノイズ(雑音)から徐々に信号を取り出すことで、高品質な画像を生成する手法です。
Dify は、具体的には、以下のような特徴を持っています:
1. **日本語での操作**:UI や設定が日本語で行われるので、日本語ユーザーにとって親しみやすい。
2. **手軽さ**:簡単にインストールして利用できるため、初心者でも容易に始めることができる。
3. **高品質な画像生成**:Diffusion モデルの威力を活かし、詳細な画像が生成可能。
Dify は、主に以下のような用途で用いられています:
- **クリエイティブ作品の作成**:イラストやキャラクター designs 等。
- **教育・研究**:AI を学ぶためのツールとしても活用される。
- **商用目的**:ビジネスでの画像生成にも利用される。
Dify は、自由にダウンロードして使用できるオープンソースソフトウェアで、GitHub 等のリポジトリから入手可能です。
>>> Send a message (/? for help)
あれ?
deepseek-r1 32Bモデル
% docker exec -it ollama ollama run deepseek-r1:32b
>>> Difyって何?
<think>
</think>
Difyは、人工知能(AI)を活用した検索エンジンです。従来の検索エンジンとは異なり、Difyはユーザーが入力する質問や命令に対し、AIが直接応答します。この機能により、ユーザーはより具体的で個人化された情報を得ることができます。
### 主な特徴:
1. **AI駆動**:AIが直接回答を生成するため、迅速且つ高度に個性的なレスポンスが可能です。
2. **多様性**:複数のAIモデルが活用され、さまざまな質問やタスクに対応します。
3. **インタラクティブさ**:ユーザーとAIとのやりとりがリアルタイムで行われ、ダイナミックに調整可能です。
### 用途:
- **情報検索**:特定のトピックに関する詳細な情報を求めます。
- **問題解決**:複雑な課題に対する応用的な助言を得ます。
- **創造的活動**:文章やアイデアを生成する際に利用します。
Difyは、AIの進化により、日々向上しています。今後も、さらなる機能拡張と改良が期待されています。
>>> Send a message (/? for help)
遅い...M4 macの限界かも...
deepseek-r1 70Bモデル
% docker exec -it ollama ollama run deepseek-r1:70b
Error: model requires more system memory (44.3 GiB) than is available (23.6 GiB)
さすがに動かないか...
感想
DeepSeek 32Bモデルまでは動く!やっぱMacすごかったです。
ただ、GPUが利用されておらず、推論が遅いという問題がありました。
次回はMacのネイティブアプリで動かしてみます。
Discussion