【2025年12月】IP-Adapter完全ガイド - 同じ顔のキャラを何度でも生成
この記事でできること
- ✅ IP-AdapterをComfyUIに導入
- ✅ 参考画像と同じ顔のキャラクターを生成
- ✅ 顔の一貫性を保ちながらポーズや服装を変更
- ✅ オリジナルキャラクターの量産
所要時間:約30分
IP-Adapterとは
IP-Adapter(Image Prompt Adapter)は、参考画像の特徴を維持して新しい画像を生成する技術です。
何ができる?
| 機能 | 説明 |
|---|---|
| 顔の固定 | 同じキャラの顔を維持 |
| スタイル転送 | 画風を維持 |
| 服装変更 | 顔は同じで服を変える |
| シーン変更 | 顔は同じで背景を変える |
ControlNetとの違い
| 項目 | ControlNet | IP-Adapter |
|---|---|---|
| 制御対象 | 構図・ポーズ | 顔・スタイル |
| 入力 | ポーズ情報 | 画像そのもの |
| 用途 | 構図を再現 | キャラを維持 |
組み合わせることで「同じキャラを同じポーズで」生成可能!
前提条件
| 項目 | 必須 |
|---|---|
| ComfyUI | インストール済み |
| ComfyUI Manager | 導入済み |
| JANKU v6.0 | 導入済み |
| VRAM | 10GB以上推奨 |
STEP 1: IP-Adapterノードの導入
1-1. ComfyUI Managerから導入
- ComfyUIで「Manager」ボタンをクリック
- 「Install Custom Nodes」を選択
- 検索欄に
IPAdapterと入力 - 「ComfyUI_IPAdapter_plus」をインストール
- ComfyUIを再起動
STEP 2: 必要なモデルのダウンロード
2-1. IP-Adapterモデル
SDXL用のIP-Adapterモデルをダウンロードします。
| モデル | 用途 | サイズ |
|---|---|---|
| ip-adapter_sdxl.safetensors | 基本モデル | 約700MB |
| ip-adapter-plus_sdxl_vit-h.safetensors | 高品質版 | 約1GB |
| ip-adapter-plus-face_sdxl_vit-h.safetensors | 顔特化版 | 約1GB |
2-2. ダウンロード元
https://huggingface.co/h94/IP-Adapter/tree/main/sdxl_models
2-3. 配置場所
C:\AI-Stack\ComfyUI\ComfyUI\models\ipadapter\
フォルダがなければ作成してください。
STEP 3: CLIP Visionモデルのダウンロード
IP-AdapterにはCLIP Visionモデルも必要です。
3-1. ダウンロード
| モデル | ダウンロード元 |
|---|---|
| CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors | HuggingFace |
| CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors | HuggingFace |
3-2. 配置場所
C:\AI-Stack\ComfyUI\ComfyUI\models\clip_vision\
STEP 4: 基本ワークフローの構築
4-1. 必要なノード
| ノード | 役割 |
|---|---|
| Load Image | 参考画像(顔)を読み込み |
| IPAdapter Model Loader | IP-Adapterモデル読み込み |
| IPAdapter Apply | IP-Adapterを適用 |
| CLIP Vision Loader | CLIP Visionモデル読み込み |
4-2. ワークフロー構成
[Load Image(参考顔画像)]
↓
[CLIP Vision Loader] → [IPAdapter Model Loader]
↓ ↓
└──────[IPAdapter Apply]──────┘
↓
[KSampler] → 生成
4-3. 詳細な接続
-
Load Image ノードを追加
- 参考にしたい顔の画像をアップロード
-
CLIP Vision Loader を追加
- モデル:
CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
- モデル:
-
IPAdapter Model Loader を追加
- モデル:
ip-adapter-plus-face_sdxl_vit-h.safetensors
- モデル:
-
IPAdapter Apply を追加
- model: Load Checkpointの出力
- ipadapter: IPAdapter Model Loaderの出力
- image: Load Imageの出力
- clip_vision: CLIP Vision Loaderの出力
- weight: 0.7〜1.0
- weight_type: linear
-
KSampler
- modelをIPAdapter Applyの出力に接続
STEP 5: 顔の一貫性を高める設定
5-1. weight(強度)の調整
| weight | 効果 |
|---|---|
| 0.3〜0.5 | 軽い参照 |
| 0.6〜0.8 | バランス良い |
| 0.8〜1.0 | 強く再現 |
| 1.0以上 | 過度(崩れやすい) |
顔の再現を重視する場合は 0.8〜1.0 推奨
5-2. weight_typeの選択
| タイプ | 効果 |
|---|---|
| linear | 標準的な適用 |
| ease in | 後半で強く影響 |
| ease out | 前半で強く影響 |
| ease in-out | 中間で強く影響 |
| weak input | 弱い影響 |
| strong style | スタイル重視 |
顔の固定には linear が無難
5-3. start_at / end_at
生成のどの段階でIP-Adapterを適用するか:
| 設定 | 効果 |
|---|---|
| start_at: 0, end_at: 1 | 全工程で適用(デフォルト) |
| start_at: 0, end_at: 0.5 | 前半のみ |
| start_at: 0.5, end_at: 1 | 後半のみ |
STEP 6: ControlNetとの組み合わせ
IP-Adapter(顔)+ ControlNet(ポーズ)で最強の制御が可能です。
6-1. 組み合わせワークフロー
[参考顔画像] → [IP-Adapter Apply] ─────────┐
↓
[参考ポーズ画像] → [OpenPose] → [ControlNet Apply] → [KSampler]
6-2. 設定例
| 要素 | 設定 |
|---|---|
| IP-Adapter weight | 0.85 |
| ControlNet strength | 0.9 |
| プロンプト | シンプルに(顔はIP-Adapterが決めるため) |
6-3. 結果
- 顔: 参考画像と同じ
- ポーズ: ControlNetで指定した通り
- 服装/背景: プロンプトで制御
STEP 7: Face IDモードの活用
より高精度な顔の固定が可能なFace IDモードを解説します。
7-1. 追加モデルのダウンロード
| モデル | 用途 |
|---|---|
| ip-adapter-faceid_sdxl.safetensors | Face ID用 |
| ip-adapter-faceid-plusv2_sdxl.safetensors | 高品質Face ID |
7-2. InsightFaceのインストール
Face IDにはInsightFaceライブラリが必要です。
# ComfyUIのPython環境で
cd C:\AI-Stack\ComfyUI\python_embeded
.\python.exe -m pip install insightface onnxruntime-gpu
7-3. 使い方
「IPAdapter FaceID」ノードを使用:
| パラメータ | 推奨値 |
|---|---|
| weight | 0.8〜1.2 |
| weight_faceidv2 | 0.8〜1.0 |
| combine_embeds | concat |
実践例: キャラクターの量産
ユースケース
「オリジナルキャラの立ち絵を複数パターン作りたい」
手順
- ベースとなるキャラ画像を1枚生成
- その画像をIP-Adapterの参考画像に設定
- プロンプトで服装/ポーズ/背景を変更
- 同じ顔で別パターンが生成される
プロンプト例
1枚目(制服):
lazypos,
1girl, school uniform, classroom,
standing, smile, looking at viewer,
2枚目(私服):
lazypos,
1girl, casual clothes, hoodie, jeans,
cafe, sitting, coffee,
3枚目(水着):
lazypos,
1girl, bikini, beach, summer,
standing, happy, sunny day,
すべて同じ顔で生成される!
トラブルシューティング
顔が似ない
症状: 参考画像と全然違う顔になる
対策:
- weightを上げる(0.9〜1.0)
- Face ID版モデルを使う
- 参考画像を正面顔にする
- 参考画像の解像度を上げる
顔以外も固定されてしまう
症状: 服装や髪型も参考画像と同じになる
対策:
- weightを下げる(0.6〜0.7)
-
ip-adapter-plus-faceモデルを使う(顔特化) - プロンプトで強く服装を指定
生成が遅い/メモリエラー
症状: IP-Adapter使用時に大幅に遅くなる
対策:
- 画像サイズを小さくする
- CLIP Visionモデルを軽いものに変更
-
--lowvramオプションで起動
顔が崩れる
症状: 顔のパーツがおかしい
対策:
- weightを下げる
- start_at を 0 より少し上げる(0.1など)
- 参考画像を高品質なものに変更
漫画・イラスト制作への応用
同一キャラの複数シーン
IP-Adapterを使えば、漫画の各コマで同じキャラクターを描けます:
- キャラデザイン画を作成
- 各コマでControlNet(構図)+ IP-Adapter(顔)
- プロンプトで表情やセリフに合わせた調整
制作フロー
キャラデザイン作成
↓
コマ割り/構図決定(ControlNet用参考画像)
↓
各コマ生成(IP-Adapter + ControlNet)
↓
セリフ挿入・仕上げ
まとめ
| ステップ | 内容 | 所要時間 |
|---|---|---|
| 1 | ノード導入 | 5分 |
| 2 | IP-Adapterモデル | 10分 |
| 3 | CLIP Visionモデル | 5分 |
| 4 | ワークフロー構築 | 10分 |
| 5 | 設定調整 | 試行錯誤 |
| 6 | ControlNet連携 | 5分 |
合計: 約30分でIP-Adapter環境構築完了!
これで「God Stack」完成!
すべての記事を完了すると、以下が可能になります:
| 機能 | 使用技術 |
|---|---|
| 高品質画像生成 | ComfyUI + JANKU v6.0 |
| ポーズ指定 | ControlNet |
| キャラ固定 | IP-Adapter |
| NSFWチャット | KoboldCPP + SillyTavern |
クラウドサービス不要、月額0円、完全プライベートで
プロ級のAI創作環境が手に入りました!
参考リンク
- IP-Adapter公式: https://github.com/tencent-ailab/IP-Adapter
- ComfyUI_IPAdapter_plus: https://github.com/cubiq/ComfyUI_IPAdapter_plus
- モデル配布: https://huggingface.co/h94/IP-Adapter
この記事が役に立ったら いいね お願いします!
質問はコメントでどうぞ。
Discussion