亚洲AV免费看深爱成人|日韩av另类一级特黄片在线|中国免费一级黄片|国产av一二三区|亚洲有码AV在线|久久亚洲国产日韩欧美|成人免费AV网站|婷婷一区综合一区|亚洲AV无码导航|高级欧美成人网站

高校合作1:010-59833514 ?咨詢電話:400-810-1418 服務(wù)與監(jiān)督電話:400-810-1418轉(zhuǎn)接2

Stable Diffusion進(jìn)階教程!AI圖像生成控制技巧大揭秘

發(fā)布時(shí)間:2024-06-14 19:36:20 瀏覽量:177次

ControlNet 是一款強(qiáng)大的工具,能夠通過添加額外控制條件,提升AI圖像生成的可控性和精度。

最新版本ControlNet 1.1增加了更多預(yù)處理器和模型,訓(xùn)練數(shù)據(jù)更充足,性能更優(yōu)。詳細(xì)信息可參考作者的GitHub文檔:點(diǎn)擊查看

ControlNet靈活應(yīng)用,不僅支持單模型,還能多模型聯(lián)合使用。掌握ControlNet的原理方法,對(duì)提高圖片生成效果大有裨益。

一、ControlNet 單模型應(yīng)用

1. 線稿上色

方法:通過ControlNet邊緣檢測(cè)或線稿提取模型,提取線稿后進(jìn)行著色和風(fēng)格化。

應(yīng)用模型:Canny、SoftEdge、Lineart。

Canny邊緣檢測(cè):

Canny能很好識(shí)別圖像邊緣輪廓,使用前需正確設(shè)置預(yù)處理器和模型。

  1. 展開ControlNet面板,上傳參考圖,勾選Enable啟用。
  2. 選擇預(yù)處理器Canny,模型選擇control_v11p_sd15_canny。
  3. 勾選Allow Preview允許預(yù)覽,生成預(yù)覽。

其它參數(shù)包括Control Weight、Starting Control Step、Ending Control Step等,可根據(jù)需求調(diào)整。

Canny 示例:

SoftEdge軟邊緣檢測(cè):

SoftEdge是HED邊緣檢測(cè)升級(jí)版,保留更多細(xì)節(jié),可防止生成圖像不良內(nèi)容。

SoftEdge 示例:

Lineart精細(xì)線稿提?。?/span>

Lineart提取更細(xì)致豐富,有三種預(yù)處理器模式可選擇。

Lineart 示例:

2. 涂鴉成圖

方法:使用ControlNet的Scribble模型提取涂鴉圖后進(jìn)行著色和風(fēng)格化。

應(yīng)用模型:Scribble。

Scribble示例:

Scribble手動(dòng)涂鴉示例:

3. 建筑/室內(nèi)設(shè)計(jì)

方法:利用ControlNet的MLSD模型提取建筑線條后再生成圖像。

應(yīng)用模型:MLSD。

MLSD示例:

4. 顏色控制畫面

方法:使用ControlNet的Seg模型,標(biāo)注不同區(qū)塊顏色和結(jié)構(gòu)控制畫面構(gòu)圖。

應(yīng)用模型:Seg。

Seg示例:

5. 背景替換

方法:利用ControlNet的Depth_leres模型移除背景后替換新背景。

應(yīng)用模型:Depth。

Depth_leres示例:

6. 圖片指令

方法:使用ControlNet的Pix2Pix模型對(duì)圖片進(jìn)行指令式變換。

應(yīng)用模型:ip2p。

Pix2Pix示例:

7. 風(fēng)格遷移

方法:使用ControlNet的Shuffle模型遷移參考圖風(fēng)格到生成圖。

應(yīng)用模型:Shuffle。

Shuffle示例:

8. 色彩繼承

方法:使用ControlNet的t2iaColor模型將參考圖色彩應(yīng)用到生成圖上。

應(yīng)用模型:Color。

Color示例:

9. 角色三視圖

方法:使用ControlNet的OpenPose模型識(shí)別人物姿態(tài)后生成圖片。

應(yīng)用模型:OpenPose。

OpenPose角色三視圖示例:

10. 圖片光源控制

方法:在img2img模式下,使用ControlNet的Depth模型控制圖片光源。

應(yīng)用模型:Depth。

二、ControlNet 多模型組合應(yīng)用

ControlNet還支持多模型組合使用,對(duì)圖像進(jìn)行多條件控制,更加靈活強(qiáng)大。

1. 人物和背景分別控制

方法:設(shè)置兩個(gè)ControlNet,一個(gè)控制人物姿態(tài),另一個(gè)控制背景,通過權(quán)重調(diào)節(jié)確保準(zhǔn)確識(shí)別人物姿態(tài)。

應(yīng)用模型:OpenPose、Seg、Depth。

2. 三維重建

方法:通過Depth和Normalbae模型識(shí)別三維目標(biāo)后重新構(gòu)建。

應(yīng)用模型:Depth、Normalbae。

3. 更精準(zhǔn)的圖片風(fēng)格化

方法:使用Lineart和Depth模型更準(zhǔn)確地提取圖片結(jié)構(gòu)并保留細(xì)節(jié)。

應(yīng)用模型:Lineart、Depth。

4. 更精準(zhǔn)的圖片局部重繪

方法:使用Canny和Inpaint模型對(duì)圖片進(jìn)行更精準(zhǔn)的局部重繪。

應(yīng)用模型:Canny、Inpaint。

熱門課程推薦

熱門資訊

請(qǐng)綁定手機(jī)號(hào)

x

同學(xué)您好!

您已成功報(bào)名0元試學(xué)活動(dòng),老師會(huì)在第一時(shí)間與您取得聯(lián)系,請(qǐng)保持電話暢通!
確定