🐷
10分で動かすローカルLLM(Mac×Dify×Ollama×DeepSeek編)
はじめに
ただのフロントエンドエンジニアがDifyとOllamaを用いてDeepSeekをローカルLLMとして動かした備忘録です。
実行環境
- Mac mini M4チップ 32GBメモリ
- macOS Sequoia 15.3.1
事前準備
ローカルLLM導入手順
- 「最初から作成」をクリック
- 「チャットボット」を選択し、に任意の名前・アイコン・説明を追加する
- 「設定に移動」をクリックし、モデルプロバイダーで「Ollama」を選択する
- 下記を設定し、保存ボタンを押す
- Model Name: deepseek-r1:32b
- Base URL: http://host.docker.internal:11434
- 画面をリロード
実行結果
右側に出てくるチャットボットで実行を確認。
感想
GUIで簡単にチャットボットが作成できるのは驚きだった。
次回はRAGをつくってみようと思う。
Discussion