💻
「Could not build wheels for llama-cpp-python」の対処法
はじめに
ぬこぬこさんの「いちばんやさしいローカル LLM」はご存じでしょうか。
これはローカルLLM初学者を対象にローカルLLMの実行~量子化までやり方を紹介してくれている記事です。
とても簡単に試すことができ、ローカルLLMに対する心理的ハードルを下げてくれる良記事でした。
ただ、Macでの実行を前提にしていたので一部Windows環境で試すとエラーが出る可能性があるところがあったので対処法を備忘録で残しておきます。
エラー発生個所
4章「大きなモデルを小さくして使ってみよう」にて"llm-quantkit"インストール時に"Could not build wheels for llama-cpp-python, which is required to install pyproject.toml-based projects"というエラーに遭遇しました。
対処法
「Microsoft C++ Build Tools」のインストールが必要でした。
-
以下のサイトから当該のアプリケーションをダウンロードします
https://visualstudio.microsoft.com/ja/visual-cpp-build-tools/ -
Setupファイルからインストールを実行します
その際、「Desktop development with C++」のみ選択すればかまいません。
-
インストールが完了したらパソコンを再起動し、再度コマンドを実行してください。
Discussion