🤗

【簡単】DeepSeek R1 ローカルで使う GPUなしで CPUのみ

2025/01/24に公開

話題のDeepSeek

ブラウザ版とAndroid版のを普段から使ってきていたが,なんせ中国の会社なので突然サービス終了したりするかもっと思ったので(根拠ない),ローカルで動かしてみたかった.

自分の環境は 独立GPUなし i5-1340p(AVX2命令セット対応)16GB RAM

Ubuntuの場合は以下の記事をご覧下さい.
https://qiita.com/devtamtam/items/0671721319524d8abf17

LM studioをインストール.

まずは,LM studioをインストール.いろんなLocall LLMが動かせるやつです.

https://lmstudio.ai/

適当なモデルを選んでダウンロード

https://lmstudio.ai/model/deepseek-r1-llama-8b

”Download and run DeepSeek R1 Distill (Qwen 7B)”をクリックして,LM studioで開くだけ

(これはDeepSeek-R1ですが、CPUなしでも動く軽めのモデルです)

ダウンロードが完了したら

Load Modelってのをクリック

もしも以下のようなエラーが起きたら

RuntimesってとこからCPU llama.cpp (Windows)をインストールしましょう

いざ会話開始

Chatメニューに行って

モデルを選んで新しいChatを始めましょう

できました

ネットなしでも動くとちょっと感動ですね.

Discussion