🤗

llama.cppでHugging Faceのモデルを直接利用する

2025/02/02に公開

ローカルLLMについて初心者すぎて使い方がわからなかったので、備忘録的に書き残しておきます。
なお、私が利用しているPCはMacBoolPro M3 Maxです。

llama.cppのビルド

Curlを利用するように設定してビルドする必要があります。

git clone git@github.com:ggerganov/llama.cpp.git
cd llama.cpp
mkdir build
cd build
cmake .. -DGGML_METAL=ON -DLLAMA_CURL=ON
cd ..
cmake --build build --config Release

あとは build/bin/ にパスを通せば良いです。

Hugging Face

Hugging Faceには色々アップロードされていますが、以下のスクリーンショットにある Use This Model ボタンから簡単に実行すべきコマンドが分かります。

Use This Model Button

ここで llama.cpp を押すと以下のような画面が出ますので、表示されているコマンドを実行すると勝手にモデルをダウンロードして実行してくれます。

これで素敵なローカルLLM生活を楽しみましょう!

Discussion