Closed4

LLamaIndexの「“Optimization by Prompting” for RAG」を試してみる

kun432kun432

https://twitter.com/llama_index/status/1720513548168917287

プロンプトによる最適化📝🤖

プロンプトを手動で調整するのは時間がかかり、困難です。メタプロンプトを使用してプロンプトを自動的に調整できたらどうなるでしょうか? 🤯スレッド+ガイドは下から🧵

@chengrun_yangらの論文「プロンプトによる最適化」からインスピレーションを受けています。 ( @GoogleDeepMind ) を、LLM とメタプロンプトを使用して@llama_index
RAG パイプラインのプロンプト エンジニアリングを自動化する方法を示すガイドに修正しました。

プロセスの仕組みは次のとおりです。
1 ⃣ RAG の標準 QA プロンプトから始めます。命令プレフィックスを最適化したいと考えています。
2 ⃣メタプロンプトは以前のプレフィックス/スコア/エグザンプラを受け取り、QA テンプレートの候補プレフィックスを出力します。
3 ⃣ eval モジュールを通じて各候補をスコアリングし、ループを繰り返します

その結果、QA テンプレートが最適化され、評価パフォーマンスが向上しました📈 。

https://docs.llamaindex.ai/en/latest/examples/prompts/prompt_optimization.html

プロンプトの最適化を自動でやる、メタプロンプト、というのは自然な流れかなと思う。

kun432kun432

LLamaIndexの中身を追っかける気にはなれないのだよね・・・

このスクラップは2023/11/07にクローズされました