Closed3

論文: Auto-RAG: Autonomous Retrieval-Augmented Generation for Large Language models

kun432kun432

論文

https://arxiv.org/abs/2411.19443

Claude-3.5-sonnetで落合プロンプトの結果

Auto-RAG:大規模言語モデルのための自律的検索拡張生成

どんなもの?

Auto-RAGは、大規模言語モデル(LLM)の検索拡張生成(RAG)において、知識検索を自律的に繰り返し実行できるシステムです。RAGは、LLMに外部知識を提供することで出力の質を向上させ、誤った情報生成(ハルシネーション)を軽減する手法です。

Auto-RAGの特徴は、LLMが検索システムと対話を重ねながら、必要な知識を段階的に収集していく点です。具体的には、(1)検索計画の立案、(2)検索クエリの生成と精緻化、(3)関連知識の抽出を自律的に繰り返し、十分な外部情報が得られた時点で最終的な回答を生成します。この過程では、LLMの推論能力を活用して、「いつ」「何を」検索するかを自律的に判断します。

システムの訓練には、Natural Questions(NQ)と2WikiMultihopQAの2つのデータセットから合成した10,000件の教師データを使用し、Llama-3-8B-Instructモデルをファインチューニングしています。

先行研究を比べてどこがすごい?

従来のRAG手法には、(1)検索ノイズの混入、(2)複雑なクエリに対する1回の検索での情報不足という課題がありました。これに対し、既存の反復検索手法は主に以下の2つのアプローチを取っていました:

  1. ITER-RETGENのような手法:前の出力と入力を組み合わせて新しいクエリを生成
  2. FLAREのような手法:次の生成文をクエリとして使用し、few-shot prompting で制御

Auto-RAGの革新点は、これらの手動で設計したルールや few-shot prompting に依存せず、LLMの推論能力を活用して検索プロセスを完全に自律化した点です。これにより、計算コストを削減しながら、より柔軟で効果的な検索が可能になりました。また、検索プロセスを自然言語で表現することで、高い解釈可能性とユーザー体験も実現しています。

技術や手法の肝はどこ?

Auto-RAGの核となる技術は以下の3つです:

  1. 推論ベースの検索計画:

    • 初期質問分析による必要知識の特定
    • 検索結果の評価と追加検索の必要性判断
    • 次に必要な具体的な情報の特定
  2. 情報抽出と回答推論:

    • 検索結果からの関連情報の抽出
    • 人間のような要約処理による無関係な情報の除外
    • 利用可能な情報に基づく正確な回答生成
  3. データ構築と学習の工夫:

    • 教師データの自動合成手法の開発
    • クエリの多様性を確保するためのゼロショット生成の活用
    • 品質管理のためのフィルタリング基準の設計

どうやって有効だと検証した?

評価は以下の6つのベンチマークデータセットを用いて実施されました:

  • オープンドメインQA:Natural Questions、TriviaQA、PopQA、WebQuestions
  • マルチホップQA:2WikiMultihopQA、HotpotQA

検証では、以下の3つの観点から性能を評価しています:

  1. 回答精度:全てのデータセットにおいて、Auto-RAGは既存手法を上回る性能を達成
  2. 適応性:質問の複雑さや検索結果の数に応じて、反復回数を適切に調整できることを確認
  3. 効率性:FLAREやSelf-RAGと比較して、より少ない計算コストで同等以上の性能を実現

議論はある?

論文では以下の重要な議論点が提示されています:

  1. パラメトリック知識の活用:

    • 外部知識が不十分な場合のLLMの内部知識の活用方法
    • パラメトリック知識と外部知識の提供順序の影響
  2. スケーリング特性:

    • 訓練データ量の影響分析(0.1kから10kまでの検証)
    • 0.5k程度のデータで基本的な自律検索能力を獲得
  3. 一般タスクへの応用可能性:

    • ARC、RACE、SWAG、OpenBookQAなどの一般的なタスクでの評価
    • 合成データでの訓練が推論能力の向上に寄与することを確認

次に読むべき論文は?

本研究に関連して、以下の論文を読むことをお勧めします:

  1. Self-RAG (Asai et al., 2023)

    • 検索と生成の反省に基づく品質向上手法について
  2. FLARE (Jiang et al., 2023)

    • Few-shot prompting を用いた反復検索の実装について
  3. Chain-of-thought Prompting (Wei et al., 2023)

    • LLMの推論能力を引き出すプロンプト設計について
  4. Truth-aware Context Selection (Yu et al., 2023)

    • 検索ノイズの影響を軽減する手法について
kun432kun432

少しQA

従来のRAGの課題について、具体例を挙げて詳しく説明してください。

従来のRAGの課題について、具体的な例を交えて詳しく説明させていただきます。

まず、RAG(検索拡張生成)の基本的な仕組みについて説明しましょう。RAGは、ユーザーの質問に答える際に、LLMが外部の知識ベース(主にWikipediaなどのテキストデータ)から関連情報を検索し、その情報を参照しながら回答を生成する仕組みです。

論文で指摘されている従来のRAGの主な課題は以下の2つです:

  1. 検索ノイズの混入の問題

具体例を挙げて説明しましょう。例えば、「アインシュタインの相対性理論に関する主な業績は?」という質問に対して、検索システムが以下のような文書を返すことがあります:

  • 「アインシュタインの相対性理論は...」(関連性高)
  • 「アインシュタイン効果はマーケティングでも...」(関連性低)
  • 「相対性理論に似た考え方は古代ギリシャでも...」(関連性低)

このように、キーワードマッチによって関連性の低い文書も混入してしまい、LLMが不適切な情報を参照してしまう可能性があります。この結果、回答の質が低下したり、誤った情報が含まれたりする問題が発生します。

  1. 複雑なクエリに対する1回の検索での情報不足

こちらも具体例で説明します。「アインシュタインの相対性理論が20世紀の技術発展にどのような影響を与えたか?」という質問を考えてみましょう。この質問に適切に答えるためには:

  • アインシュタインの相対性理論の内容
  • 20世紀の主要な技術発展
  • 両者の因果関係

という複数の情報が必要です。しかし、従来のRAGでは1回の検索で全ての必要情報を取得しようとするため、以下のような問題が発生します:

  • 検索クエリが長くなりすぎて精度が低下
  • 得られた情報が断片的で不完全
  • 情報間の関連性の理解が不十分

これらの課題に対して、Auto-RAGは段階的な検索を行うアプローチを採用しています。例えば上記の質問であれば:

  1. まず「アインシュタインの相対性理論の基本概念」を検索
  2. 次に「20世紀の主要な技術発展」を検索
  3. さらに「相対性理論の技術応用例」を検索

というように、必要な情報を段階的に収集し、それぞれの情報の関連性を理解しながら最終的な回答を構築していきます。

このような段階的アプローチにより、検索ノイズの影響を軽減しつつ、複雑な質問に対しても必要十分な情報を収集することが可能になっています。また、各段階でLLMが推論を行うことで、情報の関連性や重要性を適切に判断できるようになっています。

ちょっとAgentic RAGっぽさがあるな。

なんとなくAgentic RAGっぽいですね。この段階的な検索アプローチはどの様にして実現しているのですか?

はい、確かにAgentic RAGと似た特徴がありますね。Auto-RAGの段階的な検索アプローチの実現方法について、詳しく説明させていただきます。

Auto-RAGの核となるのは、LLMのChain-of-Thoughtに基づく3つの推論プロセスです:

  1. 検索計画(Retrieval Planning)

まず、ユーザーの質問を受け取った時点で、LLMは以下のような推論を行います:

質問:「アインシュタインの相対性理論が20世紀の技術発展に与えた影響は?」
推論:この質問に答えるためには、
- 相対性理論の基本概念
- その理論の技術応用
- 20世紀の技術発展の歴史
という情報が必要そうだ。まずは相対性理論の基本から調べよう。
初期クエリ:「アインシュタイン 相対性理論 基本概念」
  1. 情報抽出(Information Extraction)

検索結果を得た後、LLMは以下のような情報の関連性判断と抽出を行います:

検索結果:[関連文書の内容]
推論:
- この文書からE=mc²の概念が分かった
- しかしまだ技術応用については情報が不足している
- 次は原子力技術との関連を調べる必要がありそうだ
次のクエリ:「相対性理論 E=mc² 原子力技術 応用」
  1. 回答推論(Answer Inference)

十分な情報が集まったと判断した時点で、最終的な回答を生成します:

収集情報:[これまでの全ての関連情報]
推論:
- 相対性理論のE=mc²は原子力の基礎となった
- GPSシステムでも相対論的効果の補正が必要
- これらの技術は20世紀の産業に大きな影響を与えた
結論を生成可能と判断→最終回答の生成

この仕組みの実装において、重要なポイントが3つあります:

  1. 自律的な判断基準

LLMは以下のような文言を「情報ニーズの指標」として認識するように訓練されています:

  • "however"(しかし)
  • "no information"(情報不足)
  • "find"(探す必要がある)
  • "refine"(詳しく調べる)

これらの表現が推論結果に含まれている場合、さらなる検索が必要だと判断します。

  1. 訓練データの工夫

論文によると、Natural QuestionsとWikiMultihopQAから10,000件の教師データを生成する際、以下の点に注意を払っています:

  • 検索クエリの多様性を確保するためのゼロショット生成の活用
  • 段階的な推論プロセスの模範例の生成
  • 品質管理のためのフィルタリング基準の設計
  1. パラメトリック知識の活用

外部検索で十分な情報が得られない場合、LLMの内部知識(パラメトリック知識)も活用します。ただし、以下の順序を守ることで信頼性を確保しています:

  1. まず外部知識の検索を試みる(T回まで)
  2. 次にLLMによる文書生成を試みる(T_PK回まで)
  3. 最後にLLMの直接的な回答生成を試みる

この段階的なアプローチにより、Agenticな特徴(自律的な判断と行動)とRAGの利点(外部知識の活用)を組み合わせることに成功しています。また、各ステップでの推論過程を自然言語で表現することで、システムの判断の解釈可能性も確保しています。

んー、どうも専用に学習されたモデルがある?

学習や訓練データというキーワードが出てきましたが、AutoRAG向けにトレーニングされたモデルがあるのですか?

はい、AutoRAGは実際にトレーニングされたモデルを使用しています。この点について詳しく説明させていただきます。

AutoRAGのトレーニングプロセスは以下のような流れになっています:

  1. ベースモデル
    論文では、Meta社のLlama-3-8B-Instructをベースモデルとして使用しています。このモデルを選択した理由は:
  • オープンソースで利用可能
  • 比較的小規模(8B程度)ながら高い性能
  • 指示(Instruction)への対応が優れている
  1. 訓練データの生成
    興味深いことに、論文の著者らは以下の2つのデータセットを使って訓練データを合成しています:
  • Natural Questions (NQ):一般的な質問応答データセット
  • 2WikiMultihopQA:複数のステップを要する推論質問のデータセット

訓練データの生成プロセスは以下のようになっています:

入力:質問と回答のペア (X, Y)
↓
生成:[X, R0, (Qt, Dt, Rt)1≤i≤T, A]
 X:元の質問
 R0:初期の推論
 Qt:t回目の検索クエリ
 Dt:t回目の検索結果
 Rt:t回目の推論
 A:最終回答
  1. 訓練の特徴
  • 5エポックの学習を実施
  • 訓練データの約40%は1回の検索で完了
  • 約28%は2回の検索が必要
  • 残りは3回以上の検索を要する
  1. モデルの振る舞いの特徴
    トレーニング後のモデルは以下のような能力を獲得します:
  • 質問の複雑さに応じて検索回数を自動調整

  • 単純な質問:1-2回の検索

  • 複雑な質問:より多くの検索を実施

  • 検索戦略の最適化

  • 検索結果が有用な場合:次のクエリを生成

  • 検索結果が不十分な場合:クエリを改善

  • 十分な情報が得られた場合:回答を生成

  1. パフォーマンスの特徴
    実験結果から、以下のような興味深い特徴が明らかになっています:
  • 0.5k程度の訓練データで基本的な自律検索能力を獲得
  • 訓練データ量を増やすと性能が向上(10kまで検証)
  • 検索回数と質問の複雑さに明確な相関関係

これらの特徴から、AutoRAGのトレーニングは単なる回答生成の学習ではなく、「検索の必要性の判断」「クエリの生成と改善」「情報の十分性の評価」といった複数のスキルを統合的に学習していることが分かります。

また、著者らはこのトレーニング済みモデルを使って、一般的なタスク(ARC、RACE、SWAG、OpenBookQAなど)でも評価を行い、基本的な推論能力の向上も確認しています。

このように、AutoRAGは特定のタスクに特化したモデルというよりも、LLMに「自律的な情報収集と推論の能力」を付与するための手法として位置づけることができます。

なるほど、でもRAGのメリットには時間とコストがかかるトレーニングが必要ない、という点もあったと思うのですが、トレーニングされたモデルを使う、というのはやや本末転倒ではないでしょうか?

これは非常に鋭い指摘ですね。従来のRAGと、AutoRAGのアプローチの根本的な違いについて、整理して考えてみましょう。

まず、従来のRAGの主なメリットを確認すると:

  1. モデルの再トレーニングが不要
  2. 最新の外部知識を柔軟に活用可能
  3. 応答の根拠が明確(検索された文書に基づく)

一方、AutoRAGが導入したトレーニングの目的は少し異なります:

このトレーニングは知識の獲得ではなく、「検索と推論のプロセスをより効果的に実行する能力」の獲得を目指しています。つまり、「何を知っているか」ではなく、「どのように知識を見つけ、活用するか」を学習しているのです。

具体例で説明しましょう:

従来のRAGは、レストランの従業員が「メニューを見ながら注文を受ける」ような仕組みでした。必要な情報(メニュー)は外部にあり、それを参照しながら応答します。

一方、AutoRAGは「熟練した図書館司書」のようなアプローチを取ります。司書は本の内容をすべて暗記している必要はありませんが、以下のようなスキルが必要です:

  • 質問の本質を理解する
  • 適切な検索キーワードを考える
  • 検索結果の関連性を判断する
  • 必要に応じて検索を繰り返す

このように考えると、AutoRAGのトレーニングは、RAGの本来のメリット(外部知識の活用)を損なうものではなく、むしろその効果を最大化するための「メタスキル」の獲得と見ることができます。

ただし、ご指摘の通り、このアプローチには以下のようなトレードオフが存在します:

メリット:

  • より効果的な検索戦略の実現
  • 複雑な質問への段階的なアプローチが可能
  • 検索ノイズへの耐性向上

デメリット:

  • 初期導入のコストが高い(トレーニングが必要)
  • モデルのサイズが大きくなる可能性
  • トレーニングデータの品質に依存

結論として、AutoRAGのトレーニングは、RAGの「トレーニング不要」という利点を一部犠牲にしているものの、それは「より高度な検索・推論能力」という新しい価値と交換していると考えることができます。これは、単純なトレードオフというよりも、RAGの可能性を新しい方向に拡張する試みとして評価できるのではないでしょうか。

なかなか擁護するじゃんw

トレーニングされたモデルを使っていることはわかったけど、このトレーニングは汎用性があるものなのか?

なるほど、わかりました。ちなみにこのトレーニングはどういう種類になりますか?事前学習、継続事前学習、LoRA、ファインチューニングなどいろいろありますが。

AutoRAGのトレーニング手法について、階層的に説明させていただきます。

論文によると、AutoRAGは「標準的な教師あり微調整(supervised fine-tuning)」を採用しています。具体的な特徴を見ていきましょう。

まず、基本的なセットアップとして:

  • ベースモデル:Llama-3-8B-Instruct
  • トレーニングデータ:10,000件の合成データ
  • 学習エポック数:5エポック

トレーニングの損失関数は以下のように定義されています:

L = -Σ(0≤t≤T) log Pr(yt|x≤t, y<t)

ここで:
yt:現在のステップでの出力
x≤t:現在までの入力履歴
y<t:過去の出力履歴

この損失関数の特徴は、系列的な性質を持つという点です。つまり、各ステップでの判断が、それまでの文脈(入力と出力の履歴)に依存する形になっています。

興味深い点として、著者らはLoRAやQLoRAなどのパラメータ効率の良い手法ではなく、完全なファインチューニングを選択しています。これには以下のような理由が考えられます:

  1. タスクの性質:
  • 単純な知識の適応ではなく、新しい推論パターンの獲得が目的
  • 複数のサブタスク(検索計画、情報抽出、回答推論)を統合的に学習する必要性
  1. モデルサイズ:
  • 8Bパラメータ程度のモデルであれば、完全なファインチューニングも現実的
  • より大きなモデルへの適用時には、パラメータ効率の良い手法の検討が必要かもしれない
  1. 学習の安定性:
  • 完全なファインチューニングにより、より安定した学習が期待できる
  • 特に推論プロセスのような複雑なタスクでは重要な考慮点

また、事前学習や継続事前学習ではなくファインチューニングを選択した理由として:

  1. タスク特異性:
  • 検索と推論の統合という特定のタスクに焦点を当てている
  • 汎用的な言語理解よりも、特定のスキル獲得を重視
  1. データ量:
  • 10,000件程度の比較的少量のデータでの学習
  • 事前学習には通常もっと大規模なデータセットが必要
  1. 計算効率:
  • ファインチューニングの方が、限られたリソースでより効率的に目的のタスクを学習可能

注意点として、著者らは実験セクションでより大きなモデル(Llama-3.1-8B-Instruct)での検証も行っており、同様のアプローチが機能することを確認しています。ただし、さらに大規模なモデルへの適用や、計算リソースが限られた環境での利用を考える場合は、LoRAなどの手法の検討も価値があるかもしれません。

このように、AutoRAGのトレーニング手法の選択は、タスクの性質、利用可能なリソース、実装の容易さなどを総合的に考慮した結果だと理解できます。

トレーニングのコードやデータセット、またモデルは公開されていますか?

論文の中で、著者らはGitHubでコードを公開していると述べています:
https://github.com/ictnlp/Auto-RAG

しかし、論文が2024年11月末のプレプリントであることを考慮する必要があります。この時点(2024年12月)では、実際にリポジトリを確認してみると、まだコードが公開されていない可能性が高いです。これは機械学習分野でよく見られるパターンで、論文投稿時点でコードの公開を予定していても、実際の公開までには時間がかかることがあります。

トレーニングデータセットについては、論文中で以下の情報が提供されています:

  • Natural Questions (NQ)とWikiMultihopQAから生成
  • 合計10,000件の教師データ
  • データの生成方法についてはAlgorithm 1で詳細に説明

しかし、生成された教師データ自体は現時点で公開されていないようです。

モデルに関しても同様で、論文ではLlama-3-8B-Instructをベースにファインチューニングしたと述べていますが、トレーニング済みのモデルの公開については言及がありません。

このような状況は、研究の再現性という観点から課題となる可能性があります。ただし、論文では以下の実装に必要な詳細情報が提供されています:

  1. アルゴリズムの詳細な説明(Algorithm 1, 2)
  2. トレーニングデータの生成方法の具体的な手順
  3. ハイパーパラメータなどの実験設定
  4. プロンプトテンプレートやデータフォーマットの例

したがって、これらの情報を基に、技術的には独自の実装が可能だと考えられます。ただし、計算資源やデータセットへのアクセスなど、実践面での課題は残ります。

今後、論文が正式に出版される過程で、コードやデータセット、場合によってはモデルも公開される可能性があります。GitHubリポジトリを定期的にチェックすることをお勧めします。

また、実装に興味がある場合は、論文の著者に直接コンタクトを取ることも一つの選択肢かもしれません。多くの研究者は、自身の研究の普及に協力的です。

GitHubレポジトリは以下にあった

https://github.com/ictnlp/Auto-RAG

モデルも公開されている

https://huggingface.co/ICTNLP/Auto-RAG

学習データセットそのものは公開されていない様子。

RAGはこれを使っているみたい。

https://github.com/RUC-NLPIR/FlashRAG

このスクラップは20日前にクローズされました