Open3
「MemoRAG」を試す
GitHubレポジトリ
MemoRAG: メモリーを活用した次世代RAGへの進化
あらゆる用途に対応するメモリベースのデータインターフェースでRAGを強化!
概要
MemoRAGは、超効率的で超長メモリモデルを基盤とした革新的なRAGフレームワークです。従来のRAGが明示的な情報ニーズに対応するのに対し、MemoRAGはメモリモデルを活用してデータベース全体をグローバルに把握します。クエリに関連する手がかりをメモリから呼び出すことで、証拠の取得を強化し、より正確で文脈的に豊かな応答を生成します。
originally referred from https://github.com/qhjqhj00/MemoRAG and translated into Japanese by kun432特徴
- グローバルメモリ
単一のコンテキストで最大100万トークンを処理し、大規模データセット全体の包括的な理解を提供。- 最適化と柔軟性
新しいタスクに容易に適応し、数時間の追加トレーニングで最適なパフォーマンスを達成。- 文脈的手がかり
グローバルメモリから正確な手がかりを生成し、生の入力から回答への橋渡しを行い、複雑なデータから隠れた洞察を引き出します。- 効率的なキャッシング
コンテキストの事前読み込みを最大30倍高速化し、チャンク化、インデックス作成、エンコーディングのキャッシュをサポート。- コンテキスト再利用
長いコンテキストを一度エンコードし、繰り返し使用できるため、再利用性が高いタスクの効率を向上。ロードマップ
MemoRAGは現在活発に開発が進められており、リソースやプロトタイプがリポジトリで継続的に公開されています。
- [✔] コード / モデル / データセットの公開
- [✔] OpenAI/Azureモデルのサポート
- [✔] 技術レポートの公開
- [✔] 中国語サポート
- [ ] デモコードの公開
- [ ] メモリモデル用トレーニングコードの公開
- [ ] 推論速度の向上
- [ ] 任意のリトリーバル方法の統合
- [ ] メモリ能力の強化
注記: MemoRAGの最近の目標は、エンジニアリングの改善を通じて軽量な最適化を実現し、メモリ能力を向上させることです。これにより、より幅広いアプリケーションへの適応が可能となり、100万トークン以上の長いコンテキストのサポートも実現します。
このメモリモデルというのが気になる。
論文
モデルはこちら。Qwen2-7Bベースみたい。であれば日本語多少はいけるかも?