Stable Diffusion web UI を Apple Silicon(M2) Mac で動かしてみた
Stable Diffusion は、オープンソースで開発されている画像生成AIです。
Midjourney や、OpenAIのDALL·E 3 などのWebサービスとは違い、オープンソースなので自分のローカルマシーンで動かす事ができます。
stable-diffusion-webui を使うと、ブラウザから画像生成を行えます。
実行環境
マシーン:MacBook Pro(Apple M2 Proチップ)
OS:macOS Sonoma
インストール方法
Apple Silicon へのインストール方法はこちらに記載されています。
手順
HomeBrew や Git の使い方についての説明は割愛いたします。
1 Homebrewインストール
各種必要なツールは、Homebrew でインストールするので、まだインストールしてない場合は手順に従ってインストールしてください。
2 必要パッケージのインストール
brew install cmake protobuf rust python@3.10 git wget
3 リポジトリのクローン
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
4 モデルをダウンロード
実行する Stable Diffusion のモデルをダウンロードします。
モデルは、Hugging Faceからダウンロード出来ます。
私は、Version2.0を選びました。
5 モデルを配置
ダウンロードした、モデルファイルを stable-diffusion-webui/models/Stable-diffusion
に配置する。
Version2.0 の設定
Stable Diffusion 2.0 and 2.1 require both a model and a configuration file
Version2.0 を使う場合は、モデルとは別に 設定ファイル を配置する必要があるそうです。
設定ファイルは、こちらからダウンロード出来ます。
ダウンロードしたファイル名をモデル名(今回は、768-v-ema.yaml
)と同じにして、
モデルを配置した stable-diffusion-webui/models/Stable-diffusion
に配置します。
6 Web UIの起動
クローンしたディレクトリへ移動
cd stable-diffusion-webui
以下を実行すると、起動する。
./webui.sh
以下が表示されたら成功しているので、ブラウザで http://127.0.0.1:7860を開きます。
Running on local URL: http://127.0.0.1:7860
もしくは、コマンドが成功すると自動的にブラウザに立ち上がります。
左上の
こちらの箇所に、ステップ4で配置したモデルが表示されています。
画像の生成
プロンプトを入力して、Generate
を押すと画像が生成されました 🫡
Discussion