🦙

Copilot+PCでLlama3.2を動かしてみる!

2024/09/28に公開

はじめに

2024年9月25日(現地時間)にmeta社からLlama3.2が発表されました。
https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices/

特徴

多様なモデルサイズ

軽量なテキストモデル(1B、3B)

エッジデバイスやモバイルデバイスに最適化され、要約、指示実行、リライトなどのタスクをローカルで実行できます。

ビジョンLLM(11B、90B)

画像理解、キャプション生成、視覚的なグラウンディングタスクをサポートします。

オープン性とカスタマイズ性

開発者はLlama 3.2をダウンロードし、商用利用を含む幅広い用途で自由に使用・変更できます。
torchtune を使用したカスタムアプリケーションの微調整や、 torchchat を使用したローカル展開が可能です。

エコシステム

Qualcomm、MediaTek、Armなどのパートナー企業との協力により、幅広いハードウェアおよびソフトウェア環境での利用が可能です。
AWS、Databricks、Dell Technologiesなどのパートナー企業が、Llama Stackディストリビューションを提供し、エンタープライズレベルでの導入を支援します。

Llama 3.2の革新的なポイント

エッジAIの進化: 軽量モデルにより、デバイス上で高速かつ低遅延なAI処理が可能になり、プライバシー保護にも貢献します。

ビジョンと言語の融合

画像とテキストの両方を理解するモデルにより、より複雑で高度なタスクを処理できます。

オープンソースによるイノベーションの加速

開発者コミュニティへの貢献を通じて、AI技術の進歩を促進します。

Copilot+PC上でOllamaで使ってみる

それでは、実際にLlama3.2を使ってみましょう。
今回はいつものOllamaを活用します。
下記コマンドでllama3.2(3B)を実行できます。1Bを実行したい場合は、

コマンド Llama3.2(3B)
ollama run llama3.2
コマンド Llama3.2(1B)
ollama run llama3.2:1b


それではLlama3.2に質問してみましょう。

質問
Please tell me three recomended places in Sapporo.

結構軽快に動きますね。
ただ、わかってはいましたが、NPUは使われずでした。
NPUをバシバシつかったLLMというかSLMを使えると夢広がるのになぁ。

おわりに

いかがでしたか。Llamaも日々進化していますね。引き続き生成AI界隈を追っていけたらと思います!

Accenture Japan (有志)

Discussion