Closed4

LLMトークン削減技術

laisolaiso

CompressGPT

  • プロンプトの圧縮復元をLLMにプロンプトを与えてやってしまう
  • 単純に圧縮処理のための追加の上乗せtoken消費がかかるが1 completionに乗せるtokenは減るねん。というやつらしい
  • Redis使ってるのは途中の結果を保存してAPI叩かず再利用するため

https://musings.yasyf.com/compressgpt-decrease-token-usage-by-70/

https://github.com/yasyf/compress-gpt/blob/af4c1aa212682b5a0e1ddb4e12c36f2400aa92be/compress_gpt/prompts/identify_static.py#L26-L65

https://github.com/yasyf/compress-gpt/blob/af4c1aa212682b5a0e1ddb4e12c36f2400aa92be/compress_gpt/prompts/compress_chunks.py#L32-L67

laisolaiso

The Recurrent Memory Transformer architecture

https://arxiv.org/abs/2304.11062

2. The RMT memory augmentation

グローバルなメモリをセグメント化した入力embeddingsにつけて再帰的に適用させてゆく。

3.1 Fact Memorization

質問に対する事実を入力テキスト中にランダムに配置して記憶を元に回答が出せるか。

このスクラップは2023/06/17にクローズされました