Open2
ランダムな文書をプロンプトに追加するとRAGの性能が改善する

Paper: The Power of Noise: Redefining Retrieval for RAG Systems, May 2024
予備実験: Destractor文書をGold Standard文書に付加し、RAGの性能を比較
- destoractor(文書としてのsimilarityは高いが、正解を含まない文書)を付加すると性能が著しく悪化
- Gold Standardの挿入位置: Far, Middle, Near → 劣化度合いはMiddleがワースト、Nearが最も軽微
予備実験: ランダム文書をGold Standard文書に付加し、RAGの性能を比較
- ランダム文書を付加すると、Far, Middleでは性能が悪化するが、NearではLLMによっては逆に改善する場合がある
実験: ランダム文書をRetrieved文書に付加し、RAGの性能を比較
- Retrieved(RAGシステムが取得した正解を含む可能性が高い文書)にランダム文書を付加すると最大で35%性能が改善
考察: なぜこんな結果になったのか?
- Destoractorを付加するとAttentionスコアがGold Standard以外の文書に分散する。→DestoractorはRAGの性能に悪影響を及ぼす
- ランダム文書を付加すると改善する原因は不明だが、Attentionスコアのエントロピーが高くなる(Attentionが特定のトークンに集中する)と訓練時に不安定になるEntropy Collapseとの関係に言及
所感
- Entropy collapseの話は性能でなく安定性に関わる現象なので関係ない気もするが。論文[1]ではEntropy collapseを回避する手法を適用すると安定性と引き換えに性能は若干下がることを報告している。
- Gold Standardの挿入位置によって差が出ているので、むしろPositional biasの方が関係してそうだが
Reference
- Stabilizing Transformer Training by Preventing Attention Entropy Collapse, https://arxiv.org/abs/2303.06296

ACMでの講演資料: