|
|
本帖最后由 Diberlo 于 2023-5-11 21:54 编辑 # }& T0 a& A% w/ {% R' O
4 z5 N1 v Y1 m- X
基础模型:Fantasticmix v40
3 n0 a1 H$ i/ c7 v' f9 q8 c1 `! o0 p5 E
0 {" N4 W2 P" L才接触controlnet没几天,运用还不是很流畅,大家见笑了。
+ a) y) x1 ~* t, _7 B* G: a3 f第一步画张草图,拖入controlnet识别(如果openpose可以识别,就更好了),我选择了Canny把数值Preprocessor Resolution调整到700多,能识别出人形就可以,给模型提示词“一个女孩”,不能生产就重画,还好生成了。
5 w, [; [4 s+ z9 vPS:又试验了一楼朋友给出的建议,果然model中,scribble这个涂鸦识别很给力,强力建议!
+ Y5 l# t1 s% C; @2 S草01.jpg
$ h2 n' u0 t! @% P3 U第二步生成了人物后,本来想文字背景组合的,突然发癫想整点小众的。(重口警告,不喜欢的朋友请及时离开)。想塑造一个血肉背景,直接拿生成的人物随便涂了个背景,血肉模糊很好画。这时候在提示词中加入需要的正提示词(基础题提示词高清什么的随便抄一抄,后面的血肉模糊全是在线翻译的功劳),到这一步都还不用开放大器,小尺寸大量生成,然后筛选。
( u# p& ~. I9 z: U: z9 V8 x% E, _& r1 V/ w
草02.jpg; @9 m5 c; W# L2 `
选中自己满意的一张,然后再次拖入controlnet,选中depth-midas进行层次识别。识别的结果并不到位,我在正词条中加入了“stucked”(因为词条不停的换掉,现在忘记之前输入的是什么了,抱歉),然后再次筛选。在选中的结果中通过手绘又加入了部分想要变动的内容通过inpaint调整。
0 ]! Y: v8 f2 d+ }* m" h1 W* p草03.jpg
0 {+ R6 m: x9 l' L1 {7 U最终结果通过4x Ultrasharp进行了放大,结果满意。7 t. p' R8 E; z0 ^' K
00000.jpg
5 |1 f1 |7 ]3 w1 P- K0 K
. q( h( j7 }5 f' u) q2 _0 G$ G# E- U8 ^3 K: Z% B+ P/ ]( {
完成。
$ N# e& o: q3 d& M; V第一次写,有什么到不到的请大家多多包涵,感谢。. {1 H8 w) Z4 l9 ^5 v6 |; U( x! G
+ K( c7 L6 \9 L, W( X9 c4 d' k
1 R0 e0 H5 ]; m3 i$ j5 a5 | |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
评分
-
查看全部评分
|