🙆‍♀️

【新たなAI活用の選択肢?】Liquid AIが新しいモデル、LFM2.5をリリース【On-device/Edge AI】

に公開

みんな大好き『Liquid AI』の新しい発表が、2026年のCESでも話題になっていましたね!
小型のオンデバイス基盤モデルの新しいファミリーであるLFM2.5が発表されたのでした。👏

性能で他の競合モデルを軒並み上回ってますのでこれは見逃せないですね👀
リリース記念ということでさっそく内容を見ていきましょう!🎉

https://x.com/liquidai/status/2008385292244242942?s=20

LFM2.5とは?

LFM2.5 は、オンデバイスのエージェント型 AI を構成する中核として、指示追従能力に最適化されています。LFM2.5 により、あらゆるデバイス上でプライベートかつ高速で、常時利用可能なインテリジェンスへのアクセスが可能になります。新しい Text モデルは、高性能なオンデバイスワークフローにおいて妥協のない品質を提供します。Audio モデルは前世代比で 8 倍高速であり、車載機器、モバイル、IoT デバイスといった制約のあるハードウェア上でネイティブに動作します。さらに、VLM は複数画像・多言語に対応した視覚理解および指示追従能力を強化し、エッジ環境におけるマルチモーダルなユースケースを支援します。
すべてのモデルはオープンウェイトで、Hugging Face および LEAP にて本日より利用可能です。また、ローンチパートナーである AMD および Nexa AI が、NPU 上で最適化されたパフォーマンスを提供していることをお知らせします。

LFM2.5 は「オンデバイスで賢く・速く・軽く」を狙った、Liquid AIの新しい小型基盤モデルファミリーです。
LFM2 のデバイス最適化アーキテクチャを基盤としており、事前学習は 10T トークンから 28T トークンへと拡張され、さらに強化学習を用いたポストトレーニングパイプラインを大幅にスケールさせることで、1B モデルが達成できる性能の限界を押し広げているそうです。

また、今回は下記のラインナップでモデルがリリースされています。

  • LFM2.5-1.2B-Base/土台になる事前学習済みモデル。自社データでの追加学習で作り込みたいなどの用途。
  • LFM2.5-1.2B-Instruct/汎用の指示調整済みモデル。初期状態でも優れた指示追従性能とツール利用能力を発揮する。
  • LFM2.5-1.2B-JP/日本語に特化して最適化された日本語チャットモデル。文化的・言語的なニュアンスが重要となる場合に最適。
  • LFM2.5-VL-1.6B/マルチモーダル用途に最適なモデル。複数画像の理解が明確に強化され、多言語プロンプトでの視覚理解精度も改善。
  • LFM2.5-Audio-1.5B/ネイティブなオーディオ・ランゲージモデル。音声をネイティブに処理することで、エンドツーエンドのレイテンシを大幅に削減します。

巨大なLLMのみしか選択肢がなかった時代から、現実的・実用的に小型モデルという選択が出来そうな可能性を感じますね!

ちなみにアーキテクチャーのベースとなっているLFM2のテクニカルレポートも公開されてますので、内容を見てみるのも面白いかもしれません。📝

テクニカルレポートをちょっとだけ

Excerpt from “LFM2 Technical Report” (arXiv:2511.23404). Licensed under CC BY 4.0. Changes: cropped.

大きい特徴の1つはやはりこちらでしょうか。
Attention機構のネックとなっている部分を、畳み込みも併用したハイブリッドで上手くトレードオフして最適化を目指したアーキテクチャーということなんですね。

今年は目的に特化した(あるいは自分でさせる)小型のモデル利用が増えそうですね。

それでは実際に動かして感触を少し確かめてみましょう。
日本語特化のモデルも熱いですが、やはりVisionとAudioがのモデルが気になるところですね。

LFM2.5-Audio-1.5B を動かして何ができそうか感触を確かめてみる

新しくリリースされたモデル(LFM2.5-Audio-1.5B)と、On-device/Edgeが組み合わさると現状何ができそうなのでしょうか?
今回、可能性を模索するためオフライン環境で使える個人的なリアルタイム翻訳アプリ(iOSアプリ)を作成してみます。👨‍💻✨

LFM2.5-Audio-1.5Bの性能とは?

LFM2.5-Audio-1.5B は、音声とテキストの両方を入力・出力モダリティとして受け付ける、ネイティブなオーディオ・ランゲージモデルです。音声認識、LLM 処理、TTS を個別のステージとして連結するパイプライン型アプローチとは異なり、LFM2.5-Audio は音声をネイティブに処理することで、各コンポーネント間の情報的な障壁を排除し、エンドツーエンドのレイテンシを大幅に削減します。
LFM2.5-Audio の中核には、新しいコンパクトな音声デトークナイザーがあります。これは、言語モデルのバックボーンから出力される離散トークンを高忠実度の音声波形へと効率的に変換する、LFM ベースのアーキテクチャです。LFM2.5 のデトークナイザーは、モバイル CPU 上で同一精度の場合、LFM2 の Mimi デトークナイザーと比較して 8 倍高速です。最高品質を実現するために、INT4 精度での量子化対応学習(QAT)も行われており、低精度のまま直接デプロイできるよう設計されています。その結果、FP32 における従来の LFM2 Mimi デトークナイザーと比べても、品質劣化はごくわずかに抑えられています。

ちょっと日本語が扱われるかは今後に期待ですが、性能は申し分ない感じですね!
前回のバージョンから性能もかなりUPしてますし、短い期間で新しいバージョンをリリースということで今後に期待が高まります!

アプリの作成

今回、アプリ開発で利用するものは下記になります。

  • Liquid AIのモデル(LFM2.5-Audio-1.5B/LFM2-350M-ENJP-MT
  • Xcode
  • iPhone(iOSアプリ)
  • GitHub Copilot

追加で英語↔︎日本語に特化したLFM2-350M-ENJP-MTのモデルも使います。こういう必要な機能に特化した、必要なサイズのモデルを組み合わせていくことがAI活用の実用化のさらなる1歩だと考えます。

アプリの開発はGitHub Copilot(モデルはClaudeを使用)のAgentモードでコーディングしてもらいました。今回、アプリを作るの自体は本質ではないのでAI使って楽しましょう!

iOSアプリへのモデルの組み込み方は下記の公式ドキュメントや、以前公開したブログなどを参考にしてください。

LFM2.5-Audio-1.5Bモデルの使い方、サンプルコード抜粋

import LeapSDK

let modelRunner = try await Leap.load(model: "LFM2.5-Audio-1.5B", quantization: "Q8_0")

オフラインでアプリを動かして感触を見てみる

今回、翻訳の元となる英語のデータはMicrosoftのカンファレンスのKeynoteの冒頭を少し使わせていただきました。

こういう分かりやすい用途に落とし込んで動かすのもイメージが沸きやすいですかね。
現時点でも、適当に作ったアプリでこのぐらい動くなら中々に可能性を感じますよね(本当に海外に行った時にでも個人的にこの翻訳アプリ使ってみようかな笑)

高画質版

ちなみにLFM3の話

ちなみに、CESでの発表では早くもLFM3の話が出ており、ExcelやTeamsっぽいデスクトップ上のアプリケーションのAI機能がオフラインで動いているイメージムービーも流れていました。
LFM3は年内のリリースを見込んでいるとのこと。

https://youtu.be/1A_CxpwWCpY?si=o4OCieiL7befv32x&t=293

おわりに

On-device/Edgeで動くAIが現実的な選択肢に入ってくると、色々と話が変わってきそうですよね。
昨今の成長スピードの早いAIを活用するにあたっては少し先の未来を予想しながら、設計など考える必要があると思います。
今回のLiquid AIの動向で、本来の注力すべきポイントもようやく見えやすくなってき来ましたかね😉

ちょっと考察

個人的に昨今のAIでペインポイントになりやすい(あるいはこれから顕在化してくる)点において、重要になってくる軸は下記だと思っている。

・依存を減らす
・絞り込む
・言語・文化圏特化

巨大LLMは便利だが、仕組み上データを外部プラットフォームに預ける不安に加え、コア機能を担う可能性が高いにもかかわらず、価格改定・利用制限・提供終了やモデル更新による挙動変化など、供給側の都合に左右されやすい大きなリスクを抱えることになる。

様々なタスクに対応できる汎用性は魅力的だが、現実そこまでの汎用性が必要な場面は多くないだろう。自由度が高いほど出力はブレやすく、推論エラー増加とのトレードオフを踏まえると、モデルを巨大化させるより、必要な範囲に絞った小型化が合理的な選択肢と言えるだろう。

台頭するAIの多くは海外製だが、自然言語は歴史や文化などにも根ざした繊細な要素を含む。非ネイティブ圏で開発されたAIが「日本」という文脈でどこまで品質を継続的に担保できるかには疑問が残り、これは潜在的な課題になり得る。だからこそ、国産LLMは日本の文脈に即した品質を支える存在として重要な役割を果たしていく可能性がある。
(例えば、本記事で取り上げたLiquid AIは、日本語対応に前向きな姿勢を明確に示している。今後のAI選定では、こうした観点がより重要な判断材料となっていくだろう)

(個人的には久しぶりに、自宅で眠っているラズパイやらM5Stackやらを久しぶりに引っ張り出してこようかなという気持ちにもなりました☺️)

Discussion