Closed2

Style-BERT-VITS2をdockerで

moriokamorioka

記事はいくつかあるし、素直に動いた

※ただし、勤務先環境ではままならないproxyとcertのせいか、openjtalkサーバ/クライアント周りが死ぬ。それにBERTモデルのロードに数分単位の時間がかかる。何かおかしい。

https://qiita.com/okada1220/items/6fe462fa13f116ec4a7c

https://hamaruki.com/build-and-use-style-bert-vits2-api-in-one-click-with-docker/
https://note.com/nike_cha_n/n/n843bf0b21725#e340be2e-0d2c-49b4-bdfe-9d392944f53d
https://note.com/nyosubro/n/n086acab985ed

moriokamorioka

コンテナ化の以前に、いくつか派生実装があるのか?

とにかく、最初の記事のでよいや。

services:
  app:
    build: .
    container_name: style-bert-vits2-app
    volumes:
      - .:/work
    ports:
      - "8000:7860"
      - "5000:5000"
      - "6006:6006"
    # tty: true
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
    command: python server_fastapi.py
# Pythonのベースイメージを使用
FROM pytorch/pytorch:2.1.0-cuda12.1-cudnn8-runtime

RUN pip install nvidia-cublas-cu12 nvidia-cudnn-cu12

ENV CUDA_VISIBLE_DEVICES 0
ENV MKL_SERVICE_FORCE_INTEL 1
ENV LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/conda/lib/python3.10/site-packages/nvidia/cublas/lib:/opt/conda/li
b/python3.10/site-packages/nvidia/cudnn/lib:/opt/conda/lib/python3.10/site-packages/torch/lib

# 作業ディレクトリを設定
WORKDIR /work

# Pythonの依存関係をインストール
COPY requirements.txt ./
RUN pip install -r requirements.txt

手元のWSL2環境でなら、動く。

このスクラップは5ヶ月前にクローズされました