🌐

Open WebUI + LM StudioでローカルLLM環境を構築する

に公開

先日の記事では、Docker Desktopを使ってOpen WebUIの環境を構築しました。
https://zenn.dev/sion_pn/articles/0f8ca36ef42e55

前回の記事ではモデル追加までは行っておらず、そのままでは動作しない状態になっていますので、今回は、LM Studioで動かしているLLMをOpen WebUIで扱えるようにしてみます。


環境

  • Windows 11 Pro 25H2
  • LM Studio 0.3.32

LM Studioのサーバ設定


左メニューの Developer ボタンを押下し、Developer画面を開きます。


Status: Stopped と書かれているトグルスイッチをオンにすると、サーバが起動します。


Server Settings ボタンを押下し、目的に応じて設定項目を変更します。
localhostだけではなく、Local Network上でアクセスできる必要があれば、 Serve on Local Network のトグルスイッチをオンにします。

Open WebUI側設定

Open WebUIを立ち上げ、 localhost:8090/admin/settings/connections にアクセスします。


OpenAI API接続の管理 から + (接続の追加) を選択し、設定画面を開きます。


URLに、LM Studioで設定したサーバのURLの末尾に /v1 を追加したものを入力し、疎通確認をして保存します。


最後に、画面右下の 保存 ボタンを忘れずに押します。


チャット画面のモデル選択で、LM Studio上に用意しているモデルが表示されていれば、設定完了です。


以上です。
Local LLMのメリットとして、データが外部サービスに漏洩しないことや、低レイテンシでの動作、カスタマイズ性やコスト予測の容易さが挙げられます。
Open WebUIとLM Studioの連携ができると、このあたりのメリットを享受しながらいろいろなことを試せるので、環境構築の際は本記事の内容を参考にしてみてください。

Discussion