|
本帖最后由 Diberlo 于 2023-5-11 21:54 编辑
9 {$ u* d2 p: N& y) Z2 H; w1 k7 d( r9 ~: }8 v) M Y3 C* R1 b
基础模型:Fantasticmix v40
" k/ ^( ~, e+ M$ h( r+ R
& M3 c; o' r6 |) T* o$ E& _) q" Z: I
才接触controlnet没几天,运用还不是很流畅,大家见笑了。0 v* e6 F, ]: k; [ G/ Q2 W8 I
第一步画张草图,拖入controlnet识别(如果openpose可以识别,就更好了),我选择了Canny把数值Preprocessor Resolution调整到700多,能识别出人形就可以,给模型提示词“一个女孩”,不能生产就重画,还好生成了。# K1 j% |2 }) H, n9 M. o
PS:又试验了一楼朋友给出的建议,果然model中,scribble这个涂鸦识别很给力,强力建议!" Z" o$ V. e$ u q
草01.jpg F- M' k$ `* h1 L' ^
第二步生成了人物后,本来想文字背景组合的,突然发癫想整点小众的。(重口警告,不喜欢的朋友请及时离开)。想塑造一个血肉背景,直接拿生成的人物随便涂了个背景,血肉模糊很好画。这时候在提示词中加入需要的正提示词(基础题提示词高清什么的随便抄一抄,后面的血肉模糊全是在线翻译的功劳),到这一步都还不用开放大器,小尺寸大量生成,然后筛选。9 P, S# F; `. O/ }2 I4 B6 \6 t
8 l1 M: z& N1 U
草02.jpg$ i& \1 ^. G/ B% ?, S& T
选中自己满意的一张,然后再次拖入controlnet,选中depth-midas进行层次识别。识别的结果并不到位,我在正词条中加入了“stucked”(因为词条不停的换掉,现在忘记之前输入的是什么了,抱歉),然后再次筛选。在选中的结果中通过手绘又加入了部分想要变动的内容通过inpaint调整。
- K$ F2 r: y4 s* Z草03.jpg
. ?& F: G) y9 A最终结果通过4x Ultrasharp进行了放大,结果满意。
! _; L# j& U) K# V! U9 i00000.jpg5 J U6 q1 A& X5 A6 j, K8 J: ~
3 ?/ F. M) q: `7 m, r- G
4 B' u/ D0 C9 b1 Q" ?3 l完成。( P; r# Q# K# T7 x
第一次写,有什么到不到的请大家多多包涵,感谢。
2 e' M$ l$ {5 {; t6 a- e) Q* J# v9 J
5 h: B9 I! y) v( k \+ } I |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
评分
-
查看全部评分
|