😅

話題のDeepseek R1をローカルで構築してOpen WebUIでチャットしてみよう

2025/01/22に公開

概要

注目のDeepSeek R1がリリースされました。
o1と同等の能力を持つと噂ですが、ローカルでも実用的な軽さで動かせるとのことで試してみます。

前提条件

  • Dockerがインストールされていること
  • Docker Composeがインストールされていること

1. Ollamaのダウンロード・インストールと実行

https://ollama.com/download/mac

からollamaをダウンロードしインストールをしてください。

  • macOS
  • Linux
  • Windows

OSに合わせて選んでください

スクリーンショット 2025-01-22 15.34.48.png

インストール完了後、以下のコマンドを実行してください

ollama run deepseek-r1:8b

実行後以下のようなログが出るのでしばらく待ちましょう

スクリーンショット 2025-01-22 15.39.33.png

実行エラーが発生する場合は

ollama serve

を実行して、ollamaを起動してから、ollama run deepseek-r1:8bを実行しましょう。

だいぶ待たされると思いますが、
実行ができる状態になりましたら、
>>> Send a messageと表示されるので、会話してみましょう。

ちっす
とメッセージを送ってみました。

スクリーンショット 2025-01-22 15.51.40.png

回答が来ましたね。
ちょっと日本語が怪しいですが、そのまま進めてください。

2. Docker Composeファイルの作成

Open WebUIを立ち上げるための設定ファイルを作成します。
docker-compose.ymlファイルを作成し、以下の内容を記述します。

version: '3.8'

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "127.0.0.1:3000:8080"
    volumes:
      - open-webui:/app/backend/data
    extra_hosts:
      - "host.docker.internal:host-gateway"

volumes:
  open-webui:

3. Docker Composeでコンテナを起動

つづいて先ほどdocker-compose.ymlファイルを作成した場所で以下のコマンドを実行し、Open WebUIのコンテナを起動します。

docker compose up

起動したら下記のログが出ます。

スクリーンショット 2025-01-22 15.56.53.png

4. Open WebUIを開く

docker compose upコマンドを実行してコンテナが正常に起動したら、ブラウザで以下のURLにアクセスしてOpen WebUIを開いてください。

http://localhost:3000/

初回アクセス時にはAdminの

  • ユーザー名
  • メールアドレス
  • パスワード

の入力が求められますが、任意の文字を入力して問題ありません。ローカル環境ですので。

  • ユーザー名
  • メールアドレス
  • パスワード

の入力が完了したら、すぐにDeepseek R1とのチャットが開始できます。

スクリーンショット 2025-01-22 16.00.41.png

もっさり感が気になりますが、あとはローカル環境ですので好き放題できます。

スクリーンショット 2025-01-22 16.06.55.png

参考

Discussion