Closed5

LiquidAI LFM2のタスク特化型ファインチューニングシリーズ「Liquid Nanos」

kun432kun432

https://x.com/LiquidAI_/status/1971198690707616157

Liquid Nanos ⚛️ の紹介 — 非常に小さなタスク特化型モデルの新しいファミリーで、GPT-4oクラスのパフォーマンスを提供し、携帯電話、ラップトップ、車、組み込みデバイス、GPU上で直接動作し、最低のレイテンシと最速の生成を実現します。

モデルサイズ: 3.5億から26億
LFM2、効率的なモデルアーキテクチャのバージョン2に基づいて構築
数百倍大きいモデルと競争力のあるパフォーマンスを発揮
コアエージェントタスクを可能にする:正確なデータ抽出、多言語翻訳、ツール呼び出し、数学、RAG。>1/n

https://x.com/LiquidAI_/status/1971198693807358093

私たちは、自動評価、知識蒸留、強化学習、モデル統合の方法を組み合わせて使用し、特定のタスクにおけるモデルの性能を反復的に改善します。その結果得られるモデルは、小規模ながら、かなり大規模なモデルと競合する性能を発揮します。2/n

https://x.com/LiquidAI_/status/1971198697665916976

たとえば、LFM2-350M-ExtractおよびLFM2-1.2B-Extractは、記事、議事録、レポートなどの多様な非構造化文書から重要な情報を抽出し、JSON、XML、またはYAMLなどの構造化された出力に変換するように設計されています。これらは英語、アラビア語、中国語、フランス語、ドイツ語、日本語、韓国語、ポルトガル語、スペイン語の入力に対応しています。

私たちのデータ抽出モデルは、有効性、正確性、忠実度において大幅な向上をもたらします。たとえば、LFM2-1.2B-Extractは、Gemma 3 27B(そのサイズの22.5倍のモデル)よりも高いレベルで異なる言語の複雑なオブジェクトを出力でき、GPT-4oに近いパフォーマンスを発揮します。3/n

https://x.com/LiquidAI_/status/1971198700555739631

初期リリースでは6つのタスク特化型Nanoモデルを発表します:

LFM2-Extract – 350Mおよび1.2Bの多言語モデル。請求書メールをJSONオブジェクトに変換するなど、非構造化テキストからのデータ抽出に最適化されています。
LFM2‑350M‑ENJP‑MT – 双方向英日翻訳用の350Mモデル。
LFM2‑1.2B‑RAG – RAGパイプラインにおける長文文脈の質問応答に最適化された12億パラメータモデル。
LFM2‑1.2B‑Tool – 関数呼び出しとエージェント型ツール使用向けに構築された12億パラメータモデル。
LFM2‑350M‑Math – 数学的問題解決のための3億パラメータ推論モデル。
4/n

https://x.com/LiquidAI_/status/1971198702418055634

「Liquid の革新的な事前トレーニングと事後トレーニング技術により、高速かつ小型のLLMが、GPT-4oのようなはるかに大規模な最先端モデルと同等の性能を特殊なタスクで発揮できるのは非常に印象的です」と、ShopifyのCTOであるミハイル・パラキン(@MParakhin)は述べています。「Liquid は、基盤モデルの性能と速度の両方で基準を同時に引き上げ、最先端を超えています。そのため、私たちはShopifyのプラットフォームとサービス全体で彼らのモデルを活用することに興奮しています。」 5/

https://x.com/LiquidAI_/status/1971198704171487416

「デロイトは、Liquid AIおよび彼らの新しいナノモデルと協力する機会に興奮しています。このモデルは、より低コストで大型モデルに匹敵するパフォーマンスを発揮する可能性があります」と、デロイトU.S.の最高戦略・技術責任者であるランジット・バワ(@ronbawa)が述べました。6/n

https://x.com/LiquidAI_/status/1971198705958105547

「LiquidのNanosは、コンパクトでエネルギー効率の高い形で最先端の性能を提供し、AI PCにとって強力な転換点を示しています。AMDでは、ワット当たりの性能リーダーシップに重点を置き、デバイス上のインテリジェンスがAIを広く持続的にスケールアップする鍵であると考えています」と、AMDの最高技術責任者(CTO)兼上級副社長であるマーク・ペーパーマスター(@mpaper2000)は述べています。 7/n

https://x.com/LiquidAI_/status/1971198707984105584

LEAPとHugging Faceで今すぐ利用可能、Nanosは知能が遠くのデータセンターに存在せず、私たちが毎日使うデバイス、アプリ、サービスに広がる新しい時代の扉を開きます。

完全なブログ投稿を読む: https://liquid.ai/blog/introducing-liquid-nanos-frontier-grade-performance-on-everyday-devices
LEAP: https://leap.liquid.ai/models
HuggingFace: https://huggingface.co/collections/LiquidAI/liquid-nanos-68b98d898414dd94d4d5f99a
n=8

kun432kun432

公式ブログ

https://www.liquid.ai/blog/introducing-liquid-nanos-frontier-grade-performance-on-everyday-devices

Dia によるまとめ

Liquid Nanosは小型でも高性能な、特定タスク向けのオンデバイスLLM群だよ。

何が新しいのか(ざっくり)

Liquid Nanos は、約350M〜2.6Bパラメータの小型モデルなのに、抽出・翻訳・RAG・ツール呼び出し・数学推論みたいな“エージェントの基本タスク”でフロンティア級の品質を狙う設計。しかもスマホやPCで完全ローカル動作できるように、RAM 100MB〜2GBの軽さと低レイテンシを重視してる。クラウド送信を減らして、コスト・電力・遅延・プライバシの制約を一気にクリアする発想だね。

ねらい(で、なんで今?)

巨大モデル+巨大データセンタの流れは強いけど、現場は「全部クラウドに投げる」のがお金かかる・遅い・情報漏れるかもでスケールしにくい。そこで “データをモデルへ” じゃなくて “モデルをデバイスへ”運ぶ。つまり、用途特化の小型モデルを端末に載せて、速く・強く・安く・守秘を全部取りに行く設計思想。

Liquid Nanosの正体(タスク特化のLFM2)

  • 設計: 低レイテンシのタスク特化モデル(LFM2ファミリ)
  • 得意分野:
    • 構造化抽出: JSON/XML/YAMLでの厳密なデータ出力
    • 多言語理解: 日英中など9言語をカバー
    • 長文RAG: 複数文書からの根拠に基づく回答
    • 数学推論: 小型でも理由づけして正解率を上げる工夫
    • ツール呼び出し: API/DB/関数の素早い実行に最適化
  • 狙い: 巨大“汎用”モデルを細かくチューニングしなくても、最初から用途に強いチェックポイントを提供
  • 入手先: Hugging Face、LEAP(iOS/Android/デスクトップ)、Apollo

各モデルの役割(用途別にサクッと)

  • LFM2‑Extract
  • LFM2‑350M‑ENJP‑MT
    • 英↔日の双方向翻訳に特化。短文評価ベンチ以外にもチャット・技術文・ニュースまで学習
    • モデル: LFM2‑350M‑ENJP‑MT
  • LFM2‑1.2B‑RAG
    • 与えた文脈だけで答えるRAG生成に最適化
    • 9言語の複数文書・マルチターンで鍛えてある
    • モデル: LFM2-1.2B-RAG
  • LFM2‑1.2B‑Tool
    • 内的思考を抑えた“非思考”の精密ツール呼び出しモデル
    • 反応速度重視の車載/IoT/カスタマーサポートに合う
    • モデル: LFM2‑1.2B‑Tool
  • LFM2‑350M‑Math
    • 小型でも推論の手順を扱える数学モデル
    • 強化学習で冗長さを抑えつつ難易度に応じた思考量を割り当て
    • モデル: LFM2-350M-Math
  • Luth‑LFM2

どれくらい“効く”の?(評価ポイント)

  • 抽出(Extract):
    • 構文妥当性(JSON/XML/YAMLがちゃんとパースできる)
    • 指定フォーマット遵守(JSONで指定したらちゃんとJSON)
    • キーワード忠実度(入力文にある値だけを拾ってるか)
    • 絶対評価/相対評価(LLMジャッジで品質採点、GTとの比較)
    • 結果として、1.2Bモデルが27Bモデル(Gemma 3)を上回るケースありと報告
  • 翻訳(EN↔JP):
    • 公開ベンチ llm-jp-eval で優秀、短文以外の多様な文体にも強い
  • RAG:
    • 根拠性・関連性・有用性で、同サイズ帯のQwen/Gemma/Llama/Pleiasに対して競合性能
  • Tool:
    • データ汚染対策済みの自社ベンチで“思考なしでもツール選択・引数指定が的確”
  • Math:
    • 推論手順+自己検証で小型でも難問に強い設計

実務でのイメージ(エージェント組み立て)

  • オフライン翻訳+抽出: 端末上でメール→英訳→項目抽出→JSON→社内DB登録までクラウド不要
  • ドキュメントQA: RAGで製品マニュアルを検索→根拠付き回答を返す
  • リアルタイム制御: LFM2‑1.2B‑ToolがAPI/DBを即叩く→UI/センサー連動を低遅延で

使い方と入手

まとめ(価値のコア)

  • 小型×用途特化>100B級に匹敵しうる “タスク品質” を取る
  • オンデバイス低レイテンシ・低コスト・高プライバシを両立
  • モデルを組み合わせてエージェント化する前提で、現場スケールをねらう発想
kun432kun432

LFM2については以前ためしている。

https://zenn.dev/kun432/scraps/5eeb9842466222

VLMもある

https://zenn.dev/kun432/scraps/7791837d37fe59

各モデルとも、非常に軽量かつ日本語も概ね問題なく使えるのだが、軽量ゆえにファインチューニングが推奨されていたところに、公式からお手本のようなファインチューニング済モデルがリリースされた、という感じ。

なお、HuggingFaceのコレクションを見ると、GGUFとONNXバージョンもあるので、いろいろな環境で使いやすいと思う。

https://huggingface.co/collections/LiquidAI/liquid-nanos-68b98d898414dd94d4d5f99a

LFM2モデルの方にファインチューニング用のNotebookも用意されているのでそれを使えば、今回のNanosのようなユースケース特化した独自モデルが作れる、かもしれない。

kun432kun432

なお、

ライセンス: オープンライセンス(アカデミア・個人・SMB向けに広め)

とあるが、独自のライセンス(以下は350M-Extractのもの)なので注意。緩めではあるとは思うけど。

https://huggingface.co/LiquidAI/LFM2-350M-Extract/blob/main/LICENSE

以前、LFM2 を試した際に確認した内容だと以下のようなものだった。

商用利用に制限(年間売上1,000万ドル以上。研究・非営利は除く。)がある、元の著作権表示は保持、改変時は改変箇所を記載、ぐらいで、独自ライセンスだけど結構緩めな印象。なお、使用時は原文の確認を推奨。

このスクラップは7日前にクローズされました