🐷

10分で動かすローカルLLM(Mac×Dify×Ollama×DeepSeek編)

2025/02/22に公開

はじめに

ただのフロントエンドエンジニアがDifyとOllamaを用いてDeepSeekをローカルLLMとして動かした備忘録です。

実行環境

  • Mac mini M4チップ 32GBメモリ
  • macOS Sequoia 15.3.1

事前準備

  1. Difyのインストールと起動
  2. Ollamaのインストールと起動

ローカルLLM導入手順

  1. 「最初から作成」をクリック
  2. 「チャットボット」を選択し、に任意の名前・アイコン・説明を追加する
  3. 「設定に移動」をクリックし、モデルプロバイダーで「Ollama」を選択する
  4. 下記を設定し、保存ボタンを押す
    1. Model Name: deepseek-r1:32b
    1. Base URL: http://host.docker.internal:11434
  5. 画面をリロード

実行結果

右側に出てくるチャットボットで実行を確認。

感想

GUIで簡単にチャットボットが作成できるのは驚きだった。

次回はRAGをつくってみようと思う。

GitHubで編集を提案

Discussion