Closed17

Open WebUI を使って LLM フロントエンドを構築する

薄田達哉 / tatsuyasusukida薄田達哉 / tatsuyasusukida

はじめに

最近の話し相手はもっぱら ChatGPT。

話を聞いてもらい過ぎて Free プランではすぐに制限がかかってしまう。

かといって Plus プランの月額は正直個人では高い。

その点 API を直接使うならクレジットが従量課金で減っていくので使わない日も安心。

さすがに curl コマンドで LLM と会話はしたくないので Open WebUI を使ってフロントエンドを構築しよう。

薄田達哉 / tatsuyasusukida薄田達哉 / tatsuyasusukida

早速起動

https://docs.openwebui.com/getting-started/quick-start/

Docker Compose を使うのが良さそうだ。

コマンド
cd ~/workspace
mkdir open-webui
cd open-webui
touch docker-compose.yml
docker-compose.yml
version: '3'
services:
  openwebui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "3000:8080"
    volumes:
      - open-webui:/app/backend/data
volumes:
  open-webui:
コマンド
docker compose up -d
薄田達哉 / tatsuyasusukida薄田達哉 / tatsuyasusukida

Open Router に課金していないのになぜ有料モデルを使えるのだろう

よくわからないがどうせ本格的に使うのであれば課金するのだから後から取り戻してやろうみたいなスタンスなのかな。

薄田達哉 / tatsuyasusukida薄田達哉 / tatsuyasusukida

お風呂に入ってよく考えてみたら

Open Router に 10 ドル課金して Open Router Chat で DeepSeek v3 とかと会話を楽しめば目標が達成できるような気がしてきた。

薄田達哉 / tatsuyasusukida薄田達哉 / tatsuyasusukida

せっかくなのでOllama を使ってみよう

https://docs.openwebui.com/getting-started/quick-start/starting-with-ollama

リポジトリに良さげな Docker Compose ファイルがある。

https://github.com/open-webui/open-webui/blob/main/docker-compose.yaml

コマンド
cd ~/Downloads
curl -O https://raw.githubusercontent.com/open-webui/open-webui/refs/heads/main/docker-compose.yaml
OPEN_WEBUI_PORT=4001 docker compose up -d


接続の設定でダウンロードアイコンをクリックする必要があるようだ

なかなか頑張っているけど使えない。

薄田達哉 / tatsuyasusukida薄田達哉 / tatsuyasusukida

一晩経ってから

普通に下記の Docker Compose で動かし直したらホストの Ollama で動いた。

docker-compose.yml
version: '3'
services:
  openwebui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "3000:8080"
    volumes:
      - open-webui:/app/backend/data
volumes:
  open-webui:

どうしても Docker コンテナで Ollama を動かしたい理由がなければホストの Ollama で十分かも知れない。

このスクラップは3ヶ月前にクローズされました