👤

【2025年12月】IP-Adapter完全ガイド - 同じ顔のキャラを何度でも生成

に公開

この記事でできること

  • ✅ IP-AdapterをComfyUIに導入
  • ✅ 参考画像と同じ顔のキャラクターを生成
  • ✅ 顔の一貫性を保ちながらポーズや服装を変更
  • ✅ オリジナルキャラクターの量産

所要時間:約30分


IP-Adapterとは

IP-Adapter(Image Prompt Adapter)は、参考画像の特徴を維持して新しい画像を生成する技術です。

何ができる?

機能 説明
顔の固定 同じキャラの顔を維持
スタイル転送 画風を維持
服装変更 顔は同じで服を変える
シーン変更 顔は同じで背景を変える

ControlNetとの違い

項目 ControlNet IP-Adapter
制御対象 構図・ポーズ 顔・スタイル
入力 ポーズ情報 画像そのもの
用途 構図を再現 キャラを維持

組み合わせることで「同じキャラを同じポーズで」生成可能!


前提条件

項目 必須
ComfyUI インストール済み
ComfyUI Manager 導入済み
JANKU v6.0 導入済み
VRAM 10GB以上推奨

STEP 1: IP-Adapterノードの導入

1-1. ComfyUI Managerから導入

  1. ComfyUIで「Manager」ボタンをクリック
  2. 「Install Custom Nodes」を選択
  3. 検索欄に IPAdapter と入力
  4. ComfyUI_IPAdapter_plus」をインストール
  5. ComfyUIを再起動

STEP 2: 必要なモデルのダウンロード

2-1. IP-Adapterモデル

SDXL用のIP-Adapterモデルをダウンロードします。

モデル 用途 サイズ
ip-adapter_sdxl.safetensors 基本モデル 約700MB
ip-adapter-plus_sdxl_vit-h.safetensors 高品質版 約1GB
ip-adapter-plus-face_sdxl_vit-h.safetensors 顔特化版 約1GB

2-2. ダウンロード元

https://huggingface.co/h94/IP-Adapter/tree/main/sdxl_models

2-3. 配置場所

C:\AI-Stack\ComfyUI\ComfyUI\models\ipadapter\

フォルダがなければ作成してください。


STEP 3: CLIP Visionモデルのダウンロード

IP-AdapterにはCLIP Visionモデルも必要です。

3-1. ダウンロード

モデル ダウンロード元
CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors HuggingFace
CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors HuggingFace

3-2. 配置場所

C:\AI-Stack\ComfyUI\ComfyUI\models\clip_vision\

STEP 4: 基本ワークフローの構築

4-1. 必要なノード

ノード 役割
Load Image 参考画像(顔)を読み込み
IPAdapter Model Loader IP-Adapterモデル読み込み
IPAdapter Apply IP-Adapterを適用
CLIP Vision Loader CLIP Visionモデル読み込み

4-2. ワークフロー構成

[Load Image(参考顔画像)]
         ↓
[CLIP Vision Loader] → [IPAdapter Model Loader]
         ↓                    ↓
         └──────[IPAdapter Apply]──────┘
                      ↓
              [KSampler] → 生成

4-3. 詳細な接続

  1. Load Image ノードを追加

    • 参考にしたい顔の画像をアップロード
  2. CLIP Vision Loader を追加

    • モデル: CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
  3. IPAdapter Model Loader を追加

    • モデル: ip-adapter-plus-face_sdxl_vit-h.safetensors
  4. IPAdapter Apply を追加

    • model: Load Checkpointの出力
    • ipadapter: IPAdapter Model Loaderの出力
    • image: Load Imageの出力
    • clip_vision: CLIP Vision Loaderの出力
    • weight: 0.7〜1.0
    • weight_type: linear
  5. KSampler

    • modelをIPAdapter Applyの出力に接続

STEP 5: 顔の一貫性を高める設定

5-1. weight(強度)の調整

weight 効果
0.3〜0.5 軽い参照
0.6〜0.8 バランス良い
0.8〜1.0 強く再現
1.0以上 過度(崩れやすい)

顔の再現を重視する場合は 0.8〜1.0 推奨

5-2. weight_typeの選択

タイプ 効果
linear 標準的な適用
ease in 後半で強く影響
ease out 前半で強く影響
ease in-out 中間で強く影響
weak input 弱い影響
strong style スタイル重視

顔の固定には linear が無難

5-3. start_at / end_at

生成のどの段階でIP-Adapterを適用するか:

設定 効果
start_at: 0, end_at: 1 全工程で適用(デフォルト)
start_at: 0, end_at: 0.5 前半のみ
start_at: 0.5, end_at: 1 後半のみ

STEP 6: ControlNetとの組み合わせ

IP-Adapter(顔)+ ControlNet(ポーズ)で最強の制御が可能です。

6-1. 組み合わせワークフロー

[参考顔画像] → [IP-Adapter Apply] ─────────┐
                                          ↓
[参考ポーズ画像] → [OpenPose] → [ControlNet Apply] → [KSampler]

6-2. 設定例

要素 設定
IP-Adapter weight 0.85
ControlNet strength 0.9
プロンプト シンプルに(顔はIP-Adapterが決めるため)

6-3. 結果

  • 顔: 参考画像と同じ
  • ポーズ: ControlNetで指定した通り
  • 服装/背景: プロンプトで制御

STEP 7: Face IDモードの活用

より高精度な顔の固定が可能なFace IDモードを解説します。

7-1. 追加モデルのダウンロード

モデル 用途
ip-adapter-faceid_sdxl.safetensors Face ID用
ip-adapter-faceid-plusv2_sdxl.safetensors 高品質Face ID

7-2. InsightFaceのインストール

Face IDにはInsightFaceライブラリが必要です。

# ComfyUIのPython環境で
cd C:\AI-Stack\ComfyUI\python_embeded
.\python.exe -m pip install insightface onnxruntime-gpu

7-3. 使い方

「IPAdapter FaceID」ノードを使用:

パラメータ 推奨値
weight 0.8〜1.2
weight_faceidv2 0.8〜1.0
combine_embeds concat

実践例: キャラクターの量産

ユースケース

「オリジナルキャラの立ち絵を複数パターン作りたい」

手順

  1. ベースとなるキャラ画像を1枚生成
  2. その画像をIP-Adapterの参考画像に設定
  3. プロンプトで服装/ポーズ/背景を変更
  4. 同じ顔で別パターンが生成される

プロンプト例

1枚目(制服):

lazypos,
1girl, school uniform, classroom,
standing, smile, looking at viewer,

2枚目(私服):

lazypos,
1girl, casual clothes, hoodie, jeans,
cafe, sitting, coffee,

3枚目(水着):

lazypos,
1girl, bikini, beach, summer,
standing, happy, sunny day,

すべて同じ顔で生成される!


トラブルシューティング

顔が似ない

症状: 参考画像と全然違う顔になる

対策:

  1. weightを上げる(0.9〜1.0)
  2. Face ID版モデルを使う
  3. 参考画像を正面顔にする
  4. 参考画像の解像度を上げる

顔以外も固定されてしまう

症状: 服装や髪型も参考画像と同じになる

対策:

  1. weightを下げる(0.6〜0.7)
  2. ip-adapter-plus-face モデルを使う(顔特化)
  3. プロンプトで強く服装を指定

生成が遅い/メモリエラー

症状: IP-Adapter使用時に大幅に遅くなる

対策:

  1. 画像サイズを小さくする
  2. CLIP Visionモデルを軽いものに変更
  3. --lowvram オプションで起動

顔が崩れる

症状: 顔のパーツがおかしい

対策:

  1. weightを下げる
  2. start_at を 0 より少し上げる(0.1など)
  3. 参考画像を高品質なものに変更

漫画・イラスト制作への応用

同一キャラの複数シーン

IP-Adapterを使えば、漫画の各コマで同じキャラクターを描けます:

  1. キャラデザイン画を作成
  2. 各コマでControlNet(構図)+ IP-Adapter(顔)
  3. プロンプトで表情やセリフに合わせた調整

制作フロー

キャラデザイン作成
       ↓
コマ割り/構図決定(ControlNet用参考画像)
       ↓
各コマ生成(IP-Adapter + ControlNet)
       ↓
セリフ挿入・仕上げ

まとめ

ステップ 内容 所要時間
1 ノード導入 5分
2 IP-Adapterモデル 10分
3 CLIP Visionモデル 5分
4 ワークフロー構築 10分
5 設定調整 試行錯誤
6 ControlNet連携 5分

合計: 約30分でIP-Adapter環境構築完了!


これで「God Stack」完成!

すべての記事を完了すると、以下が可能になります:

機能 使用技術
高品質画像生成 ComfyUI + JANKU v6.0
ポーズ指定 ControlNet
キャラ固定 IP-Adapter
NSFWチャット KoboldCPP + SillyTavern

クラウドサービス不要、月額0円、完全プライベートで
プロ級のAI創作環境が手に入りました!


参考リンク


この記事が役に立ったら いいね お願いします!
質問はコメントでどうぞ。

Discussion