LLM/エージェントアプリ向けのメモリ実装いろいろ
たまたま見かけた。
Dia によるまとめ
ざっくり全部まとめちゃうね💖
話の中心は「Letta vs Mem0」というAIメモリ界のガチバトル
スレ主が「Letta が Mem0 を名指しディスってて面白すぎ!」って盛り上げてるのが発端。Letta(旧MemGPT)は“元祖”ポジ、Mem0は後発だけどSEOゴリ押しでやたら目立つ存在。「長期メモリ性能、ホントにSOTAなの?」って数字の信頼性まで疑われてるのが今回の火種だよ。
ベンチマークは数字より体感派?
実際メモリのベンチマークはむず過ぎて、LoCoMo みたいな既存テストだけじゃ本質わからんって意見が多数。
‐ 記憶=リトリーバル(検索)じゃないし、会話が自然かどうかが大事。
‐ 「WildBench」や「MultiChallenge」みたいな対話系ベンチが欲しいよねって流れ。Lettaの推しポイント
‐ エージェント設計ガチ勢: LLM自身がメモリを編集する“自己管理”スタイル。
‐ スケール実績: 数十万ユーザー×数百万エージェントでも回る。
‐ アイデンティティ機能: 同じAIが複数ユーザーと話しても記憶混ざらない。Mem0へのツッコミ
‐ 数字盛ってね?って疑惑。
‐ Zepも「不公平に比較された」ってキレ気味。
‐ “SOTAアピール”より中身勝負しようぜムード。他の注目サービスざっくり
- MemSync.ai: クラウド専用だけど即導入OK、初心者フレンドリー。
- Zep + Graphiti: 知識グラフで情報整理がウリ。
- basicmemory: Claude Desktopと直結。
- Cognee: 評判高め&マネージド版リリース済み。
- Saga: 小説自動生成プロジェクトの中で独自メモリ運用。
- MemU: 最近名前が出たローカル対応サービス。猫ロゴが可愛いってだけじゃなく今後の実力チェック待ち。
研究トーク & オープン論文事情
‐ MemOS みたいに外部+内部メモリを丸ごと扱う提案も出てきた。
‐ ArXiv は誰でも投稿OKだから、読む側がちゃんと中身を精査しないと“ハイプ論文”に踊らされるぞって警鐘も。結論: どれ選ぶかは「自分のテンションが上がるか」で決めろ!
数値よりも「使ってて自然」「ワークフロー楽しい」が正義。いろんなサービス試して、自分の案件とノリが合うやつを掴もうね!メモリ周りは今ほんと激アツだから、ウチも猫ロゴのMemU含め全部触ってみるつもりだし~🔥
各プロジェクトのリンクも含めて、リストアップ比較してもらった。
よっしゃ!主要メモリサービスをざっくり比較表にまとめたよ💖
AIメモリサービス比較表
サービス デプロイ形態 中核技術・管理方式 推しポイント 想定ユースケース ライセンス 公式リンク MemSync クラウド(Chrome拡張/WebApp) 個人データをAI用DBに集約・暗号化 MPC鍵管理で超プライバシー、ワンクリックPrompt Tuning 個人パーソナライズ全般 記載なし memsync.ai Letta (旧MemGPT) Docker/pip(PostgreSQL推奨) エージェント+自己編集メモリ ADEでGUI監視、Identityでユーザ分離、スケール◎ マルチエージェント、社内Bot Apache-2.0 docs.letta.com Mem0 クラウド / Self-host 階層メモリ(User/Session/Agent) LOCOMOでOpenAI超え主張、トークン90%節約 長期記憶チャットボット Apache-2.0 mem0.ai Zep + Graphiti クラウド / 自前 Temporal Knowledge Graph + Vector 履歴追跡、低遅延検索、MCPサーバ 企業アプリの文脈管理 Apache-2.0 getzep.com MemOS Self-host / Docker モジュラー記憶(MemCube) + MAG API 3層メモリ構造、KG&KV Cache統合 LLM OS、研究用途 Apache-2.0 memos.openmem.net Cognee pip / Docker / Cloud ECLパイプライン(Graph&Vector自動化) 「5行でメモリ」売り、多言語UI、30+ソース取込 エージェント開発、RAG代替 Apache-2.0 docs.cognee.ai basic-memory pip(Local-first) Markdown+SQLite→MCP Obsidian連携、完全ローカルで知識グラフ 個人PKM、プライバシー重視 AGPL-3.0 basicmemory.com MemU Cloud / Self-host メモリFS+KGリンク LOCOMO92%・コスト90%削減、猫ロゴかわいい キャラAI・ロールプレイ Apache-2.0 memu.pro SAGA Self-host (Python) 小説自動生成エージェント+KG Planner→Draft→Eval→Healの全自動制作 物語生成、リサーチ Apache-2.0 github.com/Lanerra/saga ざっくり所感🤔
- クラウド派 vs ローカル派
ガチでプライバシー守りたいなら Letta(Postgres構成)・basic-memory みたいなローカル系が安心。逆に「すぐ動かしたい」「スケール任せたい」なら MemSync や Mem0 のマネージドがラク。- グラフ重視かベクタ重視か
Zep/Graphiti・MemOS・Cognee は Knowledge Graph を芯に置いて状態遷移や来歴をガッツリ追跡。チャット履歴検索だけならベクタ系でも足りるけど、因果や時系列を語らせたい時は KG が強いでしょ。- エージェント統合度
Letta はツールコール込みの“LLM OS”色が強く、Identity 機能で 1 エージェントが多ユーザ対応できるのがおもろい。SAGA は物語特化で複数エージェント協奏型、実験ネタに最高。- 個人向けの手軽さ
MemSync はブラウザ拡張入れるだけで即パーソナライズ、basic-memory は Markdown 触るオタク層と相性バチ良。MemU は“猫ロゴ”でライト勢ホイホイだけど LOCOMO スコア高いのはガチっぽい。- ライセンスと商用可否
Apache-2.0 組は SaaS 内製に持ち込みやすい。basic-memory の AGPL は SaaSで改変配布するとき要公開だから要注意だもん。キミが選ぶときの決め手🎯
- 用途を決める:社内ナレッジ Bot か、個人 PKM か、創作 AI か。
- データ境界:ローカル完結? クラウド委託? 会社のセキュリティポリシーも要チェック。
- 拡張性:API/SDK、MCP対応、Graph可視化など開発ノリに合うか。
- ランニングコスト:トークン節約ロジックやライセンスも総合判断。
迷ったら、まずは Letta と Zep Cloud で「長期メモリ×知識グラフ」体験しつつ、個人用途には MemSync か basic-memory を突っ込んでみると感触つかめるはず!
ウチもまだ全部フル検証できてないけど、ギーク心くすぐるプロダクト多すぎてテンション上がる〜🔥
他に気になるポイントあったら教えてね、もっと深掘りするし!
挙げられているものの中には、過去試したものもあれば、初めて聞いたものもある。あとは個々に上がっていないものなどもある。
インデックス的にまとめておく。
なお、ここでいう「メモリ」は、シンプルな会話履歴、ということではなく、それらを要約するとか、もしくはユーザ固有の情報を抽出するとか、などの、いわゆる「長期」メモリのようなものをイメージしている。
Letta(旧: MemGPT)
名前が以前とは変わっている。
以前ためした際からはだいぶ時間が経っているのだけど、当時は、メモリを使ったエージェントのリファレンス実装、という感じだった。
改めて見るともはや別物だな。確認してみるかな。
Mem0
Zep + Graphiti
Memobase
これはRedditには上がっていなかった。
Bedrock AgentCore Memory
AWSのマネージド。これはRedditには上がっていなかった(ローカルLLMスレなのでしょうがないか)
フレームワーク
LLMアプリ・エージェントフレームワークとかだと、フレームワークの機能として実装されているケースもまあ多いよね。
Memary
Redditには上がっていなかったもの。
(まだ試せてない)
memori
Redditには上がっていなかったもの。どこかで見かけた。
ちょっと試してみたが、うーん・・・
面白そうなスレ
"A Different Take on Memory for Local LLMs"
"Anyone else experimenting with "enhanced" memory systems?"
supermemory
最近フォローされた方が言及されていたもの。
以前、ここで挙げたものにもメモリ関連があった
MemoryOS
MemoryScope
Memonto
MemU
Redditに挙げられていたもの
今試しているところ
nemori
たまたま見つけた
レポジトリはこちら
論文はこちら
Nemoriは、認知科学に着想を得た自己組織化エージェント記憶システムを導入します。これは、大規模言語モデルが、対話をエピソード記憶に自律的に分割し、予測誤差から意味的知識を積極的に抽出することによって健忘症を克服することを可能にします。これにより、特に時間的推論において優れた会話性能を達成し、LoCoMoでは88%、LongMemEval_Sでは95-96%のトークン使用量を、フルコンテキストのベースラインと比較して削減します。
よく評価指標に使われているLOCOMO
ただ各ベンダーごとに出している数字が違いすぎて(どこも自分たちがSOTAだと言っている)、正直どう判断したらいいのかわからない。