今回は複数の XLabs-AI ControlNet モデルを使用して、マルチ ControlNet (HED & Depth) 用の ComfyUI ワークフローを作成して試してみます。
FLUX.1 : ComfyUI : マルチ ControlNet (HED & Depth)
作成 : Masashi Okumura (@ClassCat)
作成日時 : 09/24/2024
* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。
◆ お問合せ : 本件に関するお問合せは下記までお願いします。
- クラスキャット セールス・インフォメーション
- sales-info@classcat.com
- ClassCatJP
FLUX.1 : ComfyUI : マルチ ControlNet (HED & Depth)
先に、Hugging Face Hub で利用可能な XLabs-AI の ControlNet モデルを FLUX.1 : XLabs-AI ControlNet モデル (Canny, Depth) で紹介しましたが、今回は複数の XLabs-AI ControlNet モデルを使用して、マルチ ControlNet (HED & Depth) 用の ComfyUI ワークフローを作成して試してみます。
HED エッジ検出
XLabs-AI ControlNet のチェックポイントは Hugging Face Hub で公開されています : XLabs-AI/flux-controlnet-collections
HED エッジ検出のためには flux-hed-controlnet-v3.safetensors を使用してみます。
取得して ComfyUI/models/xlabs/controlnets フォルダに配置すれば良いです。
Depth (Midas) (深度マップ)
深度マップについても同様で、flux-depth-controlnet-v3.safetensors を使用してみます。
ワークフロー
ワークフローは以下のような感じです。”Apply Flux ControlNet” ノードをカスケード接続しているのがポイントです :
実行
入力画像は既にお馴染みになった次の画像を使用します :
例えば以下のようなプロンプトを使用してみます :
cyberpunk, a maid with cat ears and a tail holding a cake in the retro kitchen, there are serveral lit candles on the cake, the large window offer a view of the trees at night,
実行すると、次のような出力画像が得られました。ワークフローとしても利用できます :
以上