Closed2
Style-BERT-VITS2をdockerで

記事はいくつかあるし、素直に動いた
※ただし、勤務先環境ではままならないproxyとcertのせいか、openjtalkサーバ/クライアント周りが死ぬ。それにBERTモデルのロードに数分単位の時間がかかる。何かおかしい。

コンテナ化の以前に、いくつか派生実装があるのか?
とにかく、最初の記事のでよいや。
services:
app:
build: .
container_name: style-bert-vits2-app
volumes:
- .:/work
ports:
- "8000:7860"
- "5000:5000"
- "6006:6006"
# tty: true
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
command: python server_fastapi.py
# Pythonのベースイメージを使用
FROM pytorch/pytorch:2.1.0-cuda12.1-cudnn8-runtime
RUN pip install nvidia-cublas-cu12 nvidia-cudnn-cu12
ENV CUDA_VISIBLE_DEVICES 0
ENV MKL_SERVICE_FORCE_INTEL 1
ENV LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/conda/lib/python3.10/site-packages/nvidia/cublas/lib:/opt/conda/li
b/python3.10/site-packages/nvidia/cudnn/lib:/opt/conda/lib/python3.10/site-packages/torch/lib
# 作業ディレクトリを設定
WORKDIR /work
# Pythonの依存関係をインストール
COPY requirements.txt ./
RUN pip install -r requirements.txt
手元のWSL2環境でなら、動く。
このスクラップは5ヶ月前にクローズされました