Open1
Elasticsearchベクトル検索構築
参考ページ
メモ
- pythonライブラリ追加
uv add torch==1.13 transformers sentence_transformers fugashi ipadic unidic_lite eland
- proxy経由ではeland_import_hub_modelを使ったesへの投入に失敗
- huggingfaceのモデルをcloneで一旦ローカルに置く
sudo apt-get install git-lfs git clone https://huggingface.co/tohoku-nlp/bert-base-japanese-v2
-
--hub-model-id
はcloneしてできたディレクトリを指定 -
--max-model-input-length
は参考ページのコマンド例にはないが指定せよとエラーが出たのでモデルの説明の「The models are trained with the same configuration as the original BERT; 512 tokens per instance」を参考に指定 -
https://huggingface.co/tohoku-nlp/bert-base-japanese-v2#training
uv run eland_import_hub_model \ --url "https://<url>:9200" \ --es-api-key "<key>" \ --hub-model-id bert-base-japanese-v2 \ --task-type text_embedding \ --max-model-input-length 512 \ --start
- 最初MLノードのメモリが少なすぎてエラー
max.heapが2GBあればモデルの投入自体はできた- 投入できてもデプロイでメモリ不足エラー
- 4GBでデプロイ成功
- データ投入件数に対する要求メモリ量は以下を参考にする
- デプロイ成功後は参考ページ通りで検索まで確認完了