Open8

マイコンで実行できるローカルLLMに関する情報をまとめるよ!

NANANANANANA

2024/10/31のM5Stackさんの投稿:
https://x.com/m5stack/status/1851911697491202312?s=46&t=NR3OQIfbodzsDigY2mDZRw

これを使うとローカルで動作可能なLLM(大規模言語モデル)を実行することができるよ。ということはChatGPTに頼らないエッジAIスタックチャンも実現可能になるかもしれないってことだね!

LLMモジュールで何ができるかは、M5Stackさんの製品紹介動画や商品ページを見てね。
https://x.com/m5stack/status/1852279474282447270?s=46&t=NR3OQIfbodzsDigY2mDZRw

https://shop.m5stack.com/products/m5stack-llm-large-laguage-model-module-ax630c?variant=45711017443585

LLMモジュールを使って開発するためのリソースは👇こちらのDevelopment Resourcesから。
https://docs.m5stack.com/en/module/Module-llm

このスクラップではマイコンのような制約のある環境で実行できるLLMの情報をまとめていくよ。って書いてるけどほとんどがM5StackさんのLLMモジュールの情報になっているよ。

Aoya-UtaAoya-Uta

このページを見ておいた方がいいよ!ってTwitterで書かれていたのでシェアします。チップ用にモデルを最適化するコンパイラらしいです。(ページに合わない場合は削除ください)

AXera Pulsar2 Toolchain Instructions Manual

https://pulsar2-docs.readthedocs.io/en/latest/

Pulsar2 is an all-in-one new generation neural network compiler independently developed by AXera(e.g. AX630C)

NANANANANANA

Note on Model Replacementに以下の記述があるから、Hugging Faceとかで公開されているモデルをそのまま使うことはできなくて、このPulsar2でAxera用に変換する必要がありそうだね。

The LLM Module supports models in a proprietary format requiring special processing to function properly. Therefore, existing models on the market cannot be used directly.

NANANANANANA

Axera AX630C

M5StackさんのLLMモジュールに採用されているAxeraさんのチップに関する情報だよ。LLMモジュールはAX630Cを使用。

https://github.com/AXERA-TECH/ax-llm

https://github.com/AXERA-TECH/ax-samples

検証済みモデル

Githubから引用

  • Qwen1.5-0.5B/1.8B/4B
  • Qwen2-0.5B/1.5B/4B
  • Qwen2.5-0.5B/1.5B/3B
  • ChatGLM3-6B
  • MiniCPM-1B/2B
  • MiniCPM-V 2.0
  • TinyLLaMa-1.1B
  • Llama2-7B
  • Llama3-8B
  • Llama3.2-1B/3B
  • Phi-2
  • Phi-3-mini
  • SmolLM-135M/360M
  • OpenBuddy-3B

AX630Cの概要

https://www.axera-tech.com/Product/126.html

NANANANANANA

用語

M5StackさんのLLMモジュールやローカルLLM関係の用語をまとめているよ。

KWS
Keyword Spotting
ウェイクワード
「アレクサ」、「OK, グーグル」のような、アシスタントを起動するためにあらかじめ決められた単語を認識する機能や技術のことだよ。

ASR
Automated Speech Recognition
自動音声認識
人間の喋った言葉を認識して文字に変換する機能や技術のことだよ。

LLM
Large Language Model
大規模言語モデル
ChatGPTのような生成AIで使用されている言語モデルのことだよ。膨大なデータを入力して深層学習させたモデルで、命令に対してタスクを実行したり自然な言葉で応答したりすることができるよ。

TTS
Text-To-Speech
文字を音声に変換する機能や技術のことだよ。VOICEVOXもそうだし、PCやスマホで文字を読み上げてくれる機能もTTSだね。

これらの4つの機能、技術はAIアシスタントで使用される基本的な機能だよ。
KWS(アシスタントを起動)→ ASR(入力された音声を文字に変換)→ LLM(入力された命令に対する回答を生成)→ TTS(回答を音声に変換して出力)

NANANANANANA

エッジAIスタックチャンを作るまでの流れ(想像)

KWS, ASR, LLM, TTSを使用してエッジAIスタックチャンを作る流れをまとめているよ。ボクはAIのことあんまり分かっていないから間違いもあると思うよ。間違いがあればコメントで指摘してくれると嬉しいな。
最終的にはマイクから入力した音声に対してスタックチャンが音声で応答してくれることが目標だけど、一気にそこまでやるよりは段階を踏んだ方が理解も深まりそうだから、まずはKWS, ASR, LLM, TTSの各機能の使い方をそれぞれまとめてみるよ。

テキストを入力して応答させる (LLMによる推論)

LLMモジュールで日本語のテキストを入力して、それに対してAIによる回答を生成するための手順はたぶんこんな感じ:

  1. 使用するモデルを決める
  2. Hugging Faceでモデルを探す
  3. モデルの変換&量子化 (Pulsar2)
  4. 推論環境の実装

使用するモデルを決める

AX630Cでは色んな種類のLLMが使えるみたいだから、まずはどのモデルを使うかを選ばないといけないね。ここでのモデルはQwenとかLlamaとかのことだよ。

Hugging Faceでモデルを探す

LLMでは学習って作業が必要だけど、学習はスペックの高いPCとか学習用データが必要だったりするから、まずは公開されているモデルを使用するっていうのがいいんじゃないかな。Hugging Faceというサイトには色んな人が作ったモデルが無料で公開されているよ。ここから、自分の使いたいモデルを探してみてね。
https://huggingface.co/

NANANANANANA

Text-To-Speech

テキストから音声を合成するText-To-Speechの情報をまとめているよ。

OpenJTalkでLLMモジュールを喋らせている方:
https://x.com/maxpapa3/status/1855812792189850109?s=46&t=NR3OQIfbodzsDigY2mDZRw

https://open-jtalk.sp.nitech.ac.jp

OpenJTalkを初音ミクの声で喋らせているからあげ先生の記事。音響モデルはまだ入手できるのかな?
https://karaage.hatenadiary.jp/entry/2016/07/22/073000

AquesTalkでLLMモジュールを喋らせているタカヲさん。
https://x.com/mongonta555/status/1854461398924874056?s=46&t=NR3OQIfbodzsDigY2mDZRw