|
本帖最后由 Diberlo 于 2023-5-11 21:54 编辑
1 C T$ I6 W" J* g9 I$ r/ F5 ~( A9 W4 S" @/ K+ M. {
基础模型:Fantasticmix v401 K1 k; Q5 A% D" c
5 k/ a4 \, H4 H2 C
* t7 C) n) y* P( r8 S% K0 z才接触controlnet没几天,运用还不是很流畅,大家见笑了。( E2 f# S6 z: ?' S& T! z
第一步画张草图,拖入controlnet识别(如果openpose可以识别,就更好了),我选择了Canny把数值Preprocessor Resolution调整到700多,能识别出人形就可以,给模型提示词“一个女孩”,不能生产就重画,还好生成了。
- f$ p$ X2 Y: c# B, K' M+ c1 sPS:又试验了一楼朋友给出的建议,果然model中,scribble这个涂鸦识别很给力,强力建议!
z6 o$ c# F4 ~6 f! Q3 q" u+ x草01.jpg% L A0 P4 Y. b
第二步生成了人物后,本来想文字背景组合的,突然发癫想整点小众的。(重口警告,不喜欢的朋友请及时离开)。想塑造一个血肉背景,直接拿生成的人物随便涂了个背景,血肉模糊很好画。这时候在提示词中加入需要的正提示词(基础题提示词高清什么的随便抄一抄,后面的血肉模糊全是在线翻译的功劳),到这一步都还不用开放大器,小尺寸大量生成,然后筛选。
. O* ~7 Z* |3 J7 H; U) }: j; @
3 M7 Q6 x/ X* C, M4 g草02.jpg
0 b, E" _: j4 h! J) w选中自己满意的一张,然后再次拖入controlnet,选中depth-midas进行层次识别。识别的结果并不到位,我在正词条中加入了“stucked”(因为词条不停的换掉,现在忘记之前输入的是什么了,抱歉),然后再次筛选。在选中的结果中通过手绘又加入了部分想要变动的内容通过inpaint调整。
# \, Y: `0 f* U& Z草03.jpg
8 x: M) g$ u- U. d最终结果通过4x Ultrasharp进行了放大,结果满意。; r" O6 X' ~; N! }- Y& i# k" E
00000.jpg' H; n: ?* a, J1 M2 r0 `, s7 ?
6 Q8 p7 i' @% z
+ n. u+ N$ |" l4 T, C/ N# F
完成。+ h& J! m4 a! H4 L, _- s$ z4 ~
第一次写,有什么到不到的请大家多多包涵,感谢。: T3 c5 \ V% D q; D4 k2 B
6 C, u1 O" O- A# J
9 l4 n+ a8 @. j! U3 \. }& [: k& I |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
评分
-
查看全部评分
|