Open1
「BAAI/bge-multilingual-gemma2」「BAAI/bge-reranker-v2.5-gemma2」を試す
全然知らなかった。
BGE-Multilingual-Gemma2 は、LLMベースの多言語埋め込みモデルです。 google/gemma-2-9b をベースに、多様な言語とタスクでトレーニングされています。 BGE-Multilingual-Gemma2 は主に以下の点で進歩しています:
- 多様なトレーニングデータ:このモデルのトレーニングデータは、英語、中国語、日本語、韓国語、フランス語など、幅広い言語にわたっています。さらに、データは検索、分類、クラスタリングなど、さまざまなタスクタイプをカバーしています。
- 優れたパフォーマンス:MIRACL、MTEB-pl、MTEB-frなどの多言語ベンチマークにおいて、最先端(SOTA)の結果を示しています。また、MTEB、C-MTEB、AIR-Benchなどの他の主要な評価においても優れたパフォーマンスを達成しています。
Gemma2ベースらしい。