|
本帖最后由 Diberlo 于 2023-5-11 21:54 编辑 3 Q9 P- K ^. G* R. Q: _) `
! {+ N+ L7 u1 P0 V基础模型:Fantasticmix v40
( ]3 \8 _/ X% y5 ?! b
7 X6 g) V# V6 y) `) w
' }& M5 k. e; p! Y. p# c6 o7 D才接触controlnet没几天,运用还不是很流畅,大家见笑了。
; z6 Y$ B4 i, C5 U- u( G第一步画张草图,拖入controlnet识别(如果openpose可以识别,就更好了),我选择了Canny把数值Preprocessor Resolution调整到700多,能识别出人形就可以,给模型提示词“一个女孩”,不能生产就重画,还好生成了。( Y6 s/ d. o8 {; P( s+ Q" T" \+ `; l
PS:又试验了一楼朋友给出的建议,果然model中,scribble这个涂鸦识别很给力,强力建议!. B1 n) B- g5 s# D
草01.jpg+ i. u Y, O: |1 |! c1 {9 }
第二步生成了人物后,本来想文字背景组合的,突然发癫想整点小众的。(重口警告,不喜欢的朋友请及时离开)。想塑造一个血肉背景,直接拿生成的人物随便涂了个背景,血肉模糊很好画。这时候在提示词中加入需要的正提示词(基础题提示词高清什么的随便抄一抄,后面的血肉模糊全是在线翻译的功劳),到这一步都还不用开放大器,小尺寸大量生成,然后筛选。
& W J4 L; |4 c i; A) u N: `8 E# |5 Z" d$ i; O" _
草02.jpg
J$ U: o% `3 D6 W$ b# i" e选中自己满意的一张,然后再次拖入controlnet,选中depth-midas进行层次识别。识别的结果并不到位,我在正词条中加入了“stucked”(因为词条不停的换掉,现在忘记之前输入的是什么了,抱歉),然后再次筛选。在选中的结果中通过手绘又加入了部分想要变动的内容通过inpaint调整。
' d0 {: {0 x1 J, {+ K: X" d0 Y草03.jpg/ D) ^- X; y- \
最终结果通过4x Ultrasharp进行了放大,结果满意。
6 i+ W; [! _, y: _: T00000.jpg
0 G m* P8 M6 p; V( K, C' ]' P: H* q7 t4 g( X" D7 S0 l
' m# m- `3 H# w* N" z7 K
完成。
) W& }; I6 V d& h$ o9 B第一次写,有什么到不到的请大家多多包涵,感谢。2 y$ A" d z5 J- B0 N7 }
" p, }3 Y" o- R& b- p3 X( N- {7 c$ u0 E E; u/ x1 m2 B
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
评分
-
查看全部评分
|