😆

ローカル環境でサクッとLLMを動かせるようになった!

に公開

使ったツール

GPUStackというツールです。
ローカルでLLMを使うのに、入れれば色々なLLMなLLMを簡単に導入・管理できるツールです。
https://docs.gpustack.ai/latest/overview/

どんなツール?

ローカル環境に導入して、LLMのモデルを入れたり、使ったりできるツールです。
GUIでもCLIでも使えます。

つよつよな使い方をすると、導入されたマシンのGPUを抽象化して統合管理し、
複数のLLM用に割り当てたりできるようです。
(この辺はまだちゃんと触ってなくて分かってない)

こんな感じに、ノリでぽちぽちしたらローカルLLMを入れられる! 👇

入れ方は?

とりあえずこのコマンドをコマンドライン上で打って、

curl -sfL https://get.gpustack.ai | sh -s -

分かんなかったらChatGPTとかに全コピーして、
「なんかエラー出たんだけど解決方法教えて」
とやって出てくる手順でいけました。

詳細な手順は下記ページ👇
https://docs.gpustack.ai/latest/quickstart/

環境

  • ハード:MacBook(M1,2020) ※WindowsやLinuxもいけるみたいです。
  • OS:macOS 15.4(24E248)
  • Python:3.10.11
  • ソフト:GPUStack v0.5
  • 覚えてる限りの前提条件:
    • Macにhomebrewというやつが入っていること
    • 導入するローカル環境のpythonが3.10~3.12であること
    • macOSが14以上であること
    • ※詳細な環境の要件はここに載ってます。仕様のリンク
  • 使用したLLMモデル:
    • llama3.2
    • deepseek-r1
    • stable-diffusion-v2.1-turbo

感想、ローカルで簡単に動かせてすごい!面白い!

ツール入れてサクッと動かせる感がすごい!
そして、 ローカルでLLMが動く!というのが素直に感動!
llama3.2は、こんな感じに動いてくれました。

# 命令
日本語で自社製品「IT教育くん」を営業するメール文章を作成してください。

# 役割
あなたはプロフェッショナルな営業マンです。お客さんの立場に立った優れたメール文章を作成することができます。

# 製品の特徴
- 名称は「IT教育くん」
- 教育現場における、学期試験の実施や採点を自動で行うツール
- 導入することにより、試験を行う先生の負担を減らし、正確性を上げることができる。

---

「IT教育くん」 お客様へのごサポートに取り組む

ご自身に興味がある製品「IT教育くん」をぜひご購入してください。

【製品の特徴について】

*   教育現場における学期試験の実施や採点を自動で行うツールです。
*   導入することにより、試験を行う先生の負担を減らし、正確性を上げることができます。

【ご購入の手続きについて】

*   [製品の説明文][link:製品の説明文]
*   [ご購入の方法][link:ご購入の方法]
*   [製品の注意事項][link:製品の注意事項]

【ご質問の回答】

ご質問の場合には、[製品のパフォーマンスについて][link:パフォーマンスについて]をご確認ください。

【ご返信の手続きについて】

ご返信の場合には、[製品のパフォーマンスについて][link:パフォーマンスについて]をご確認ください。

---

上記は、自社製品「IT教育くん」の営業メールの例です。自社製品に興味がある場合は、ご自身の inquiries に対して contact することができます。

---

営業担当者:[名前]、[住所]です。

---

製品の詳細には、ご自身の inquiries に対して contact することができます。

画像生成もこんな感じ。黒猫を出しました。
stable-diffusion v2.1で生成。

今後に期待な点

まず、テキストモデルの使い勝手の良さですね。
(これは単純にモデル自体の進歩具合だと思うのですが。)

もっと言うと最近の生成AIに顕著な、
「痒いところに手が届く」感じ、
「いい感じに意図を汲み取ってよしなにやってくれる」感じ。

llamaもガチガチにプロンプトを組んだら使えそう感はあるのですが、
やはりChatGPTとかClaudeとか、
ネット経由で使えるLLMの爆速進化具合に慣れちゃうと、
そういうふうに使えたらなという欲が出てきちゃいますね。

そして、画像生成の精度と速度
(これも単純に、そもそも自分のMacで新しめのモデルを使えなかったとか、LLMのモデル自体の性能や、マシンパワーの問題かもですが。)
1枚の画像生成に4分くらいかかってました。
現行のChatGPTの生成(高精細で1枚1分かからないくらい)に慣れちゃうと、
そういうのを求めちゃうのが人間のサガな気がします。

ローカルLLM面白いね、今後来そうだね

自分のPC上で動くってのが面白くて良いです。
そして、ローカルに限定できるので、
セキュリティ的に生成AIが難しいという環境でも使えるようになりそう。
(ここはマシンとLLM両面の性能次第ですが。)

Accenture Japan (有志)

Discussion