[DeepSeek R1]ローカルで簡単に!Open WebUIとOllamaを使った環境構築手順
はじめに
DeepSeek R1は,中国のAIスタートアップであるDeepSeekが開発した高度な大規模言語モデルです.このモデルは,数学,コード生成,自然言語推論などの複雑なタスクにおいて優れた性能を発揮し,OpenAIの最新モデル(2025年1月時点)と比較しても遜色ない能力を持っています.
さらに,DeepSeek R1はMITライセンスの下でオープンソースとして公開されており,誰でも自由に利用・改良・商用化が可能です.
本記事では,DeepSeek R1をOpen WebUIとOllamaを用いてローカル環境で使用するための手順を解説します.
Ollamaのインストール
Ollamaの公式サイトからインストーラをダウンロードし,実行する.もしくは,以下のコマンドを実行することでインストールを行えます:
curl -fsSL https://ollama.com/install.sh | sh
インストールが完了したら,以下のコマンドで正しくインストールが行われているか確認してください.
ollama --version
DeepSeek R1のダウンロード
ollama run
コマンドを使ってDeepSeek R1を起動します.起動に際して,モデルがダウンロードされます.
ollama run deepseek-r1:1.5B
ここでは,1.5BパラメータのDeepSeek R1をダウンロードしています.より大きなモデルを使用する場合は,deepseek-r1:14B
などのように指定してください.
2回目以降の起動時には,モデルのダウンロードは行われず,直ちに起動されます.
ここまでで,DeepSeek R1をCLIで使用することが可能になりました.一度,適当なプロンプトを送ってみてください.正しく起動していれば,応答が返ってくるはずです.
Open WebUIのインストール
Open WebUIは,Webブラウザ上で拡張性,機能の豊富性が優れた完全にオフラインで動作するように設計されたセルフホスト型AIプラットフォームです.
以下のコマンドを実行して,Open WebUIをインストールします:
※Python 3.11以降が必要です.
pip install open-webui
インストールが完了したら,以下のコマンドで正しくインストールが行われているか確認してください.
open-webui --version
Open WebUIの起動
以下のコマンドを実行して,Open WebUIを起動します:
open-webui serve
起動時の出力の中にUvicorn running on http://~~~~ (Press CTRL+C to quit)
のような文章があると思いますので,そのURLにブラウザでアクセスしてください(デフォルトではhttp://localhost:8080
).
Open WebUIの初期設定画面が表示されていれば,正しく起動しています.
初期設定完了後のチャット画面で,左上からモデルを選択することができます.その中に先ほどダウンロードしたDeepSeek R1のモデルがあれば完了です.選択して,チャットを送信してみてください.
まとめ
本記事では,DeepSeek R1をOpen WebUIとOllamaを用いてローカル環境で使用するための手順を解説しました.ぜひ本記事の手順を参考に,ローカル環境での高度なAIモデルの活用に挑戦してみてください.
Discussion