假如最终效果图部分视觉没有到达我们的预期,我们可以结合图生图模式下的局部重绘或者上传重绘蒙版功能,运用重绘蒙板结合关键词进行重新绘制,直到达我们的预期效果为止。当熟悉了整个创作模式后进行批量输出方案时,线稿输出 3d 画面的服从大大超出我们的想象。
2. 平面卡通 IP 秒变 3D 角色
除了上述的线稿转 3d 场景之外,我们一样平常的平面 IP 卡通人物也可以通过 stable diffuson 秒变 3d 人物,在实现过程上述的案例有所差别,因为我们需要更加精准的按照我们的平面插画进行 3d 人物的制作,固然我们更期望最终的 3d 形象与我们的平面效果完全吻合,因此这里我们不再使用文生图模式,而是接纳图生图模式来进行更精准的控制。
以一张用 midjourney 生成的 ip 卡通平面三视图为例:根据我们卡通人物的特征,添加详细的正反向形貌关键词来构建预期效果,重绘幅度数值设置为 0.5。另外,在模型的使用上还是有很大区别的,大模型选用了 revanimated_v122.safetensors,滤镜是 animevae.pt。controlnet 接纳 depth-zoe 控制深度;canny 或者 lineart-anime 控制形状线稿的提取;关于 lora 模型选择了 blindbox 给予雷同于盲盒有趣的 3d 效果,另外还使用了 charturnerv2:0.4 这个 lora 模型用来增强模型的塑料质感,最终就形成了如图的 3D 角色。
好比,现在我想要一张(如下图)同样姿势的工作人员不是站在空调旁边,而是想让他站在微波炉旁边的场景,那么我们可以将原图放在图生图模式下,大模型同样选用 relisticv20,滤镜选择 animevae.pt。lora 模型选择 filmvelvia2 雷同于胶片质感来烘托真实的场景氛围;controlnet 运用的是 openpose_full 用其来控制人物的姿势状态,配合重绘幅度参数的调节以及正反关键词的形貌来到达想要的效果。本案例的正反关键词形貌如下:
正向关键词:A handsome smiling Chinese repairman is standing under the microwave oven, wearing a green T-shirt. There are some white furniture in the scene, dramatic lighting,
一位面带微笑的中国修理工站在微波炉下,身穿绿色 T 恤。场景中置放了一些白色的家具,引人注目的灯光。
反向关键词:EasyNegative ,GS-DeMasculate-neg,bhands-neg, lowres Unreasonable view (worst quality:2), (low quality:2),
前 3 个英文单词是调用的 embeddings 文件名称,低分辨率的,不合理的视图(最差质量:2),(低质量:2)
另外在真实人物场景的输出过程中,很多时间人物的手部、脸部会出现题目,我们可以通过 SD 的进阶模型 embeddings 在一定水平上去修复画面手部的题目,例如调节手部的模型 bhands-neg.pt;对于人物脸部扭曲的题目,我们可以运用 face editor 插件,通过调解参数来使人物的心情更加真实天然。
关键词如下:The center of the image is a piece of paper on the table, The image is a close-up shot, showing the details of the paper, The image is taken from a bird’s-eye view angle, Close-up view, indoors, the scene is bright, The overall picture is bright, The picture is a 3D modeling, C4D, Octane renderer, masterpiece, best quality, highres, original, reflection, unreal engine rendered, body shadow, extremely detailed CG unity 8k wallpaper, minimalist
(在这里我们使用了 toon2 和 COOLKIDS 这两个 lora 模型。模型不唯一,可根据自己需求在 C 站上自行选择下载。)
反向关键词:(worst quality:2), (low quality:2), (normal quality:2), lowres, ((monochrome)), ((greyscale))
反向关键词就使用一些通用的即可。
参数内容如下:
随着人工智能的渐渐发展,越来越多的 AI 工具也一窝蜂的涌现出来。
在众多的 AI 利器当中 Midjourney(简称 MJ)和 Stable diffusion(简称 SD)两款软件在图片的效果出现上表现尤为突出,虽然 MJ 可以或许通过形貌关键词来对图像进行调解,但总觉得跟脑海里设想的那张图还差一点意思,不能完全的符合心里预期。
迫于这个原因我们将经历投入到 SD 的学习当中,在学习的过程中发现 SD 的操作界面对设计师来说比较友好,操作界面更雷同于一款软件的操作界面,感觉是在学习一门技能(可能是总用绘图软件做图留下的后遗症)。
在实际操作 SD 这款软件时有两点是强于 MJ 的:1.它可以精准控制画面的构图及布局。2.它也可以定制画面的输出风格。在工作上能将所设想的草图通过 control net 插件进行百分之百的还原,可以说大大的提高了出图质量及数目。
本次分享将结合平时工作中,应用到 SD 软件进行出图的实操履历,通过对 SD 的运用输出行业场景图来给大家做一些树模。在一样平常的工作中,为了保证视觉构图还有画面风格的一致性,有意去搭建了属于赶集行业特征的运营场景素材库,目的是为了让设计师能机动调用,随做随取,节省时间提高服从。
在开始实操之前,先来说下 SD 的工作流程:1.前期需要在脑筋里构想一个场景图,并借用绘图软件勾勒出大概的草图轮廓线。2.通过 SEG 图表找到对应材质的色值(SEG 色表大家可以网上搜索自行下载),实现对画面中摆放物体的材质进行精准调节。3.将文生图得到的图片转到图生图中借助 control net 插件中 tile_resample 模型对图片里的细节进行处理于此同时使用脚本中的 UItemate SD upscale 模型将已得到的图片进行人为放大(这样做是为了在图生图的放大过程中同时修补画面细节)
一、线稿生成图
好的废话不多说,咱们开始演示:
第一步输入正向关键词:CBD 办公场景,宽敞明亮,有格调,高清拍照,广告级修图,8K 高清,CBD office scene,Bright and spacious,There is style,HD photography,Ad-level retouching,8K HD,
反向关键词:
NSFW,nude,naked,porn,(worst quality, low quality:1.4),deformed iris,deformed pupils,(deformed,distorteddisfigured:1.3)cropped,out of frame,
poorlydrawn,badanatomy,wronganatomy,extralimb,missinglimb,floatinglimbs,cdonedface(mutatedhandsandfingers:1.4),
disconnectedlimbs,extralegs,fusedfingers,toomanyfingers,longneck,mutation,mutated,ugly,
disgusting.amputation,blurry,jpegartifacts,watermark,watermarked,text,Signature,sketch,
输入关键词的同时将脑筋里的想法通过绘图软件绘制成线稿图(这个线稿的布局及形状决定了出图的结构及布局),将绘制好的草图上传至 control net 插件里选择 scribble 模型(实际操作界面如下)。
生成效果如下:
二、SEG色值生成
第二步:根据画面需要对场景内的物体进行材质更换(这一步需要配合关键词即画面中出现的材质需要在关键词中也对应提及,关键词的紧张水平要用()夸大,同样也借助 control net 插件里选择 seg 模型,配合第一步的操作双开 control net 模型,SEG 权重的巨细数值,决定最终出现的效果。
生成效果如下:
三、放大图片调解细节
第三步:选择一张自己心仪的图片然后转到图生图模式,将图片结合 control net 插件中的 tile_resample 进行细节丰富,同时使用脚本中的 UItemate SD upscale 模型将其放大至自己想要的图片巨细。