AI绘画开源最强软件SD WEBUI手把手利用教学!
HI,大家好,我是彤姐。前 言
SD (Stable Diffusion)是AI绘图界鼎鼎闻名的开源产物,其强大的绘图功能,配合高强度的可定制化能力,满足了很多业务需求。这次来教学怎么利用SD WEBUI。
起首看下主界面的区域划分:
https://img-blog.csdnimg.cn/img_convert/824215cd93e2b79e0438c2e848c0c44d.png
主界面一样平常包括7大区域,从上往下依次为(见上图):
[*] 快捷设置区域(赤色)
[*] 主功能菜单区域(橙色)
[*] “提示词”区域(蓝色)
[*] 参数设置区域(绿色)
[*] 附加功能区域(黄色)
[*] 图片生成区域(紫色)
[*] 页尾版本信息区域(青色)
从上到下依次用对应的彩色框划定了出来
1.快捷设置区域
https://img-blog.csdnimg.cn/img_convert/c70f1918c3d1e9b89058bf56c9afa648.jpeg
[*] 该区域主要提供针对Stable Diffusion Web UI软件利用界面的快捷设置。用户可以将Setting之中提供的若干项快捷设置勾选出来,显示在这个区域,以方便在利用软件过程中快速切换设置 ;
[*] Setting(在主功能菜单区域)之中的快捷设置选项很多,大家可以根据自己一样平常经常用到的需求,自行选择。一样平常常用的有:sd_model_checkpoint、sd_vae、CLIP_stop_at_last_layers;
详细设置方法如下:
① 设置步调一
打开主菜单中的Settings(设置),左侧菜单选取最下方的Show all pages(显示所有页面),右侧会把所有的设置页的信息都集中罗列出来,所以页面很长。此时用网页搜索方式查找到“Quicksettings list”(快捷设置列表);
② 设置步调二
找到Quicksettings list 设置项后,在下拉菜单中选择自己需要的若干项。大多数纯熟利用者都会选择以下三项,新手可以先照此设置:
[*] sd_model_checkpoint,为安装时就默认有的选项,是文生图所需要的大模型的选取菜单,方便在生成图像时切换不同的模型;
[*] VAE(Variational autoencoder),中文名叫“变分自编码器”,简朴可以明白为是一种画面饱和度的滤镜与画面微调功能。有些大模型是需要用到VAE来调整的,有些则不需要。所以在快捷设置中我们要显示这个选择菜单,方便在更换模型时VAE也对应地更换;
[*] CLIP_stop_at_last_layers,简写为Clip skip(Clip跳过层)。指的是控制图像生成过程中CLIP模型的利用层数。可通过滑块取值从1-12。由于 CLIP是通过计算文本和图像之间的相干性来实现的,因此如果跳过太多的步调,文本对生成图像的匹配准确度会渐渐降低。一样平常我们默认都是用1或2。
这里我建议大家增加两项:samples_save、live_previews_enable
[*] samples_save( Always save all generated images ),勾选则意味着每次AI生成的图像都自动生存,取消勾选则是不自动生存,需要手动去生存;
[*] live_previews_enable( Show live previews of the created image),此项为默认开启的,但是体系提示不建议开启。因为此项开启后会在AI生图过程中显示生成的中间环节,这会影响GPU的利用效率。
③ 设置步调三
末了,在以上都设置好后回到页面上端,点击Apply settins(生存设置)按钮,然后再点击右侧的Reload UI(重启WebUI)进行软件重启。重启后,你会发现你的WebUI最上端多了这些快捷设置项。
2.主功能菜单区域
https://img-blog.csdnimg.cn/img_convert/635c5354f60f13c026ed3a699d0703a2.jpeg
[*] 该区域罗列出了Stable Diffusion WebUI 软件里的若干主功能项,以标签方式显现;
[*] 默认打开软件后显示为第一项——tex2img(文生图),文生图也是我们用到的最多最主要的功能;
[*] 其他还有img2img(图生图)、Extras(附加功能)、PNG info(图片信息)、Checkpoint Merger模型合并、Train训练、Settings(设置)、Extensions(扩展);
[*] 大家会发现我的截图里还多出了很多项目,这些项目都是我后期安装的插件。我们以后会详细介绍每一个菜单和每一个目前最盛行的主要插件的安装和功能。
3.“提示词”区域
https://img-blog.csdnimg.cn/img_convert/1c199069d712c2a45487edb290ef6e9c.jpeg
该区域是Stable Diffusion WebUI 的重点频仍利用区域,其中有四个小区域:
①正向提示词区
②反向提示词区
③生成按钮
④“提示词”功能按钮区
⑤styles(提示词预设加载)区
⑥大家还发现了一些我未在此标注的功能区域,这些区域是额外安装的辅助提示词的插件,稍后我会详细介绍。
https://img-blog.csdnimg.cn/img_convert/0cc0cc6f72f59c4832acd32fd17b770a.jpeg
① 正向提示词区:
[*] 我们之前介绍过,“提示词”Prompt 分正向提示词与反向提示词。该区域就是专门填写正向提示词的输入区域;
[*] Embedding 与 LoRA 模型也是直接通过文本的方式输入到此区域。稍后在讲到Embedding 与 LoRA 模型时,我们会详细解说;
[*] 从网络上尤其是C站上直接拷贝来的提示词组合,其中含有正向与反向提示词、还有参数数值的很多文本信息。统一将这些文本复制到这里(正向提示词输入区域),然后点击右侧的小箭头“↙”自动把正反提示词与参数分配给不同的区域。
② 反向提示词区:
https://img-blog.csdnimg.cn/img_convert/33d0f3478a8a89d84b2ac606b3c9612a.jpeg
[*] 专门输入反向提示词的区域;
[*] 该区域也可以输入反向提示词的 Embedding;
③ 生成按钮:
https://img-blog.csdnimg.cn/img_convert/58d11e03ebf1f30730845fcadc2f8dfb.jpeg
[*] 无论是在txt2img(文生图)还是在img2img(图生图)、Extras(附加功能)、PNG info(图片信息)等其他功能标签里,点击此Generate(生成)按钮就意味着让AI开始作图了。
[*] 点击后,该按钮会切换为interrupt(终止)和skip(跳过)两个小按钮,可以让你终止或跳过AI生图的进程。
[*] 右键点击此Generate(生成)按钮,会出现Generate forever的选项,这个会让AI一直生成下去,直到你制止它为止,这对于大批量生成图片后进行筛选有一定资助。
④ “提示词”功能按钮区:
https://img-blog.csdnimg.cn/img_convert/97d9c3ab979d8c91fcdf9cf0f5301d9a.jpeg
[*] 左数第一个,斜向左下的小箭头“↙”按钮,可以将网上拷贝过来的正反提示词与参数混淆在一起的文本进行分离,并分配给WebUI的不同输入与参数区域;
[*] 第二个,垃圾桶图标的按钮,清空正向与反向提示词输入框中的所有内容,但是不会将参数设置区域内的参数复位;
[*] 第三个,这个图标的图形表达不是很清晰(似乎是一个玄色的山丘上升起了一个太阳),但它的功能是很重要的,就是点击后显示 LoRA、Embedding、LyCORIS 等模型,方便选取。再点击一次该图标,取消显示;
[*] 第四个,手写板小图标,是一个读取按styles的按钮。点击后,它将下方 styles(提示词预设加载)区里选择好的styles 内的所有文本展开并填入正向或反向提示词区域用的;
[*] 第五个,一个很古典造型的磁盘图标,是存储按钮,这个按钮是用来存储正向与反向提示词输入框里的文字,将他们简化为一个简朴名称存储下来,存到 styles 里(通常是在styles.csv这个表格文件里),方便日后调用。
⑤ styles(提示词预设加载)区
https://img-blog.csdnimg.cn/img_convert/2c15f1ce76213f867eec66393e4c4238.jpeg
[*] 通过之前读取按钮和存储按钮的介绍我们可以相识到, styles区域实际上是对一系列“提示词”的集合存储,通常用一个简朴的名字来命名这个集合,方便日后索引和调用。通过这个便利功能,日后就不用每次在提示词输入框里,再手动地输入很多标准套路的参数类的提示词了。
[*] 这个styles在Stable diffusion webui的本地文件夹下,通常是在styles.csv这个表格文件里存储。你可以手动在表里增删改“提示词”内容;
[*] styles.csv 文件里是可以区分正向和反向提示词的。大家可以用Excel打开这个文件看看。
4.参数设置区域
参数设置区域里包括一些底子的AI生图参数(文生图与图生图的这个区域大体一样,略有少数不同):
https://img-blog.csdnimg.cn/img_convert/6d4692a1f4e18f0b331721003a185792.jpeg
Tex2img文生图的参数设置区域:
[*] Sampling method 采样方法(Sampler)
[*] Sampling steps 采样迭代步数(Steps)
[*] Restore faces 面部修复
[*] Tiling 平铺/分块
[*] Hires. Fix 高清修复
[*] Width 宽度/Height 高度
[*] Batch count 生成批次
[*] Batch size 每批数量
[*] CFG Scale 提示词相干性
[*] Seed 随机种子
[*] Script 脚本
Samplingmethod 采样方法(Sampler)(或成为采样器)
https://img-blog.csdnimg.cn/img_convert/72ac57c5cba2fb20cc6e578e61197c94.jpeg
目前这个版本罗列了20种采样方法, Euler a, Euler, LMS, Heun, DPM2, DPM2 a, DPM++ 2S a, DPM++ 2M, DPM++ SDE, DPM fast, DPM adaptive, LMS Karras, DPM2 Karras, DPM2 a Karras, DPM++ 2S a Karras, DPM++ 2M Karras, DPM++ SDE Karras, DDIM, PLMS, UniPC
对于采样方法Sampling method ,我们需要相识一些内容。起首,Stable Diffusion 中的所有采样器都是出Stability AI 公司的首席研究员@RiversHaveWings ( Katherine Crowson) 之手。不同的采样方法都有比较学术的解释,例如:Euler a采样器利用了祖先采样(Ancestral sampling)的Euler方法,有Karras后缀的采样器都是基于Karras论文中提到的运用了相干Karras的noise schedule的方法等等。这些采样器背后都有非常生涩难明的学术原理。我们需要相识的是哪种采样器得当哪类图形哪种艺术风格,以及他们各自的优缺点。
DDIM(Denoising Diffusion Implicit Models) 和 PLMS(Pseudo Numerical Methods for Diffusion Models on Manifolds) 是sd的原始采样器。
[*] Euler a :算是比较通用的采样方法,但会偏向于得当插画类图像,环境光效质感较弱,对于Prompt提示词的利用率仅次与DPM2和DPM2 a,偶尔会产生异想天开的构图效果;
[*] Euler:也得当插画类图像,画面团体较柔和,环境细节与渲染好,背景则含糊较深远;
[*] Heun:出图平均质量比Euler和Euler a高,在采样步数较高的设置下出图表现较好,因而出图速率较慢;
[*] DDIM :是SD的资格最老的原始采样方式,它甚至和PLMS构成了SD源头的一部分。它得当宽幅画面,也是在采样步数较高的设置下出图表现较好,因此速率偏低,环境光线与水汽效果好,写实质感不佳。在负面提示词不充实情况下,往往发挥很随意;
[*] DPM2 :该采样方法对Prompt提示词的利用率可达80%以上,所以,如果你是Prompt比较纯熟,期望用Prompt控制画面上的更多细节,可以多接纳这个方法;
[*] DPM2 a:险些与DPM2雷同,对人物特写有一定资助;
[*] PLMS :也是SD的老资格原始采样方式,单次出图质量仅次于Heun;
[*] LMS :饱和度与对比度偏低,比较得当动画的风格;
[*] LMS Karras:很得当油画风格,所以写实类不佳;
[*] DPM fast:是早起开发者的一种测试方法,不得当计划师出图;
[*] DPM++ 2M:和Euler a 一样,比较通用,在低采样步数(低于 20)时就可以产生优质的画面。
目前好用的有 Euler a(更细腻),和 DDIM(得当局部重绘),新手保举利用 Euler a。Euler a 富有创造力,不同步数可以产出不同的图片。调太高步数 (>30) 效果不会更好。DDIM 收敛快,但效率相对较低,因为需要很多 step 才能获得好的效果,得当在局部重绘时间利用。
Sampling steps 采样迭代步数(Steps)
https://img-blog.csdnimg.cn/img_convert/2ad0fa6eb7b67e000c62e224581c07ba.jpeg
简朴来说采样迭代步数(Steps)就是盼望出图时,采样器来计算多少步数来出图,但并非步数越多越好,不同出图效果、模型选择在利用采样迭代步数上都需要有相应的调整,多数情况迭代步数20-30步就可以了。
更多的迭代步数到底好不好?更多的迭代步数可能会有更好的生成效果,更多细节和锐化,但是会导致生成时间变长。而在实际应用中,30 步和 50 步之间的差异险些无法区分。太多的迭代步数也可能适得其反,险些不会有提高。
· Sampling method 采样方法(Sampler)与 Sampling steps 采样迭代步数(Steps)之间的关系
https://img-blog.csdnimg.cn/img_convert/0b2e32ab112090ae3519a8abd1e766ca.jpeg
[*] Euler A 是分身速率和质量的最优之选;
[*] DPM2 A 在核理分配步数的情况下也能产生高质量作品;
[*] DDIM 和 Euler 则在运气较好的情况下尤其以细腻的画风见长;
[*] DPM Solver 系列算法可以相对低步数即达到划一甚至更高出图质量的新型高阶算法;
[*] 当你审美疲劳时,更换采样方法也许可以带来耳目一新的感觉。但不保举 LMS、DPM fast、LMS Karras和 PLMS 这四个,它们的生成质量在大多数情况下相较于其它算法而言不佳;
[*] DPM A 和 Euler A 都是非线性迭代方法,并不会因为迭代步数增加而使得生成图像无休止地变得更优秀,在大于一定的迭代步数之后反而质量会快速下滑;
[*] DDIM 和 Euler 等线性迭代方法则恰恰相反,质量往往依托于迭代的次数。但也存在边际效应的问题,当迭代步数过大时,再增加迭代次数也不会让画面产生明显变化;
[*] 实际利用时需要根据画布巨细和目标是否复杂来综合思量。在512 * 512 的小尺寸标准画且无猛烈细节要求的简朴画面中,利用 Euler A / DDIM 等保举迭代步数在 30 到 40 之间,而利用 DPM2 A 等需要高步数的算法时则保举迭代步数翻倍。而利用 DPM Solver 系列则保举 20 到 30 。
Restore faces面部修复
https://img-blog.csdnimg.cn/img_convert/5e79918d419c02b4f0fef78885d5a95e.jpeg
由于目前AI生图领域对人的脸部和手部仍然无法做到很好的控制,经常导致脸崩和手崩的情况发生。现实天下中,人类对脸部的玄妙细节和变化非常敏感。除了哭、笑等大幅度的表情特征外,神经网络尚无法完全捕到如此细腻的变化,导致Ai生成的人脸不自然或扭曲的效果……所以,需要让AI专门针对脸部进行二次再生成,即修复。但是此功能对脸部占画面比例较小的图来说,基本无效。
(对于脸部占比小的图如果进行脸部修复的话,目前最好的办法是用到了Face Editor等插件,我们稍后会详细介绍。)
https://img-blog.csdnimg.cn/img_convert/e30e6e31f7972146873196a6beb432ae.jpeg
脸部崩坏的原图(左图)与面部修复后的效果(有图)
Tiling 平铺/分块
https://img-blog.csdnimg.cn/img_convert/9eec3d137abcac3f6008ee65569c59ec.jpeg
这个功能一样平常不会用到,但是个别计划领域会有效,比如需要做到四方连续的花纹图案时,这个功能勾选后会产生可以无限连续拼图的花纹图案。我们的窗帘花纹便是如此。
Hires. Fix 高清修复
https://img-blog.csdnimg.cn/img_convert/f5b63509d29148c8929e5fe9d63162ee.jpeg
由于目前stable diffusion V1-V1.5版本均是在512*512的原始训练素材底子上训练的,所以在用AI生图时,最好设置要生成的图片尺寸为512*512或512*768。但是,如许的图片分辨率对于专业计划师来说远远不够,我们偶尔需要1024以上的大图,此时就需要对图像进行二次生成式放大了。
注意:不是简朴放大,而是通过神经网络对图像在更高尺寸上再生成。此时,高清修复便是经常用到的一个功能了,但勾选它会耗费额外的GPU计算资源和时间。另外放大后的图与原图细节会有略微不同。
https://img-blog.csdnimg.cn/img_convert/7d8ac38546cc7a228688554545c06f11.jpeg
在点击了高清修复后,UI界面会额外延展出一些参数设置:
[*] Upscaler 放大算法(16种) Latent 潜变量、Latent (antialiased) 潜变量(抗锯齿)、Latent (bicubic) 潜变量(双三次插值) 、Latent (bicubic antialiased) 潜变量(双三次插值并抗锯齿)、Latent (nearest) 潜在(最邻近)、 Latent (nearest-exact) 潜在(最邻近-整数)、Lanczos 、Nearest 最邻近(整数缩放)、4x-UltraSharp、 ESRGAN_4 x、LDSR、 R-ESRGAN 4 x+、R-ESRGAN 4 x+ Anime6B 、ScuNET、ScuNET PSNR、SwinlR 4 x SwinlR_4 x。每种放大算法各有各的特点,在结合重绘幅度的情况下会对原图有一定的变形,尤其是脸部。如果要保持细微处不变建议利用Extras中的放大算法来放大图片,如许可以进行精准控制。但如果是第一次生成图片,则需要在此处进行。我们将在下面对比这16种放大算法。目前Upscaler (放大算法 )的下拉菜单中,总共默认安装有16种放大算法,每一种放大算法都有各自得当的图像类型,有的对二次元类图片效果好,有的对真实场景真人照片类放大效果好。这些放大算法与tex2img(文生图)中Hires. fix(高清修复)所附带的放大算法中除了前6个Latent潜变量算法以外,后面12个都是划一的:
[*] Latent:Latent系列采样方法,是一种基于 VAE 模型的图像加强算法,通过将原始图像编码成变量,并对其进行随机采样和重构,从而加强图像的质量、对比度和清晰度。
[*] Lanczos:用于超分图像的传统算法。它根据每个像素点周围像素的远近关系不同赋予不同的权重,近的权重高,远的权重低,然后在放大的图像上进行补间。放大后的图像仍旧含糊 。
[*] Nearest:是一种基于图像插值的算法,与Lanczos同属于传统算法,放大后图像仍旧含糊。
[*] BSRGAN:比Nearest略好。
[*] ESRGAN_4x (Real ESRGAN) :Enhanced Super-Resolution Generative Adversarial Networks (加强型超分生成对抗网络)的缩写,4x是得当放大4倍的意思,属于人工智能类型的算法。实测确实增加了很多看上去很真实的纹理,但是偶尔又会把一张图片弄得满是锯齿或怪异的纹理。得当真实照片质感图像,较符合人体皮肤的质感,面部轮廓,对毛孔处理较过细。不得当放大AI生成的图像,不具备去噪点功能。
[*] R-ESRGAN 4x+:R是Real-Time的意思,+代表可放大4倍以上,可对图像去含糊降噪,有涂抹感,导致有偏硬的色块感。不得当放大AI生成的图像。
[*] R-ESRGAN 4x+ Anime6B:Anime是二次元的意思,6B指的是在60亿参数的动漫数据集上训练的效果,其中包含了大量不同风格、不同质量的动漫图像。在动漫图像加强领域具有较高的准确性和效果,而且实用于不同类型的动漫图像处理。另外,Real-ESRGAN 系列是由腾讯 ARC 实行室研发的,值得鼓励!
[*] 4x-UltraSharp:基于ESRGAN做了优化模型。UltraSharp顾名思义,会让图片变得平滑、锐利,得当修复外貌纹理有问题的图片,很得当匹配真人质感模型利用。
[*] LDSR:Latent Diffusion Super Resolution(潜在扩散超分辨率模型)的缩写。是耗时最长的,但同时也是效果最好的,尤其是对照片来说最好。
[*] ScuNET:在Lanczos底子之上具备去噪点的功能,对人体肌肤有一定磨皮效果,如果你单纯只是想去噪点的话,用这个算法很得当。
[*] ScuNET PSNR:与SCuNET相比,在真人质感领域险些没有区别,得当动漫。
[*] SwinIR_4x:利用了Swin Transformer的头脑,属于对抗网络的新型算法,得当绘画类图片的放大,输出区域不稳定,有些区域含糊,有些区域又能放大细节。不得当放大AI生成的图像。
以上罗列的这些算法,由于SD-WebUI的版本不同可能会有部分算法不划一的情况。
另外,网上还有更多的放大算法可供下载,可以去这个链接地点:
https://upscale.wiki/wiki/Model_Database
国外有一个热心的播主总结了300多种放大算法的优劣,生成了对比图:
https://phhofm.github.io/upscale/introduction.html
让我们做一个表格总结一下(代表得当、代表不得当、●代表未经针对训练但可能会得当):
https://img-blog.csdnimg.cn/img_convert/a2405d582f00054cc5b13478807aac2b.jpeg
(数据总结绘制表格不易,转载请注明出处)
[*] Hires steps 高清修复采样次数 采样次数越高,修复的细节越多,但耗费的资源与时间也越多。
[*] Denoising strength 重绘幅度 重绘幅度高代表对原始素材进行二次修复时的变动幅度。数值越大,AI的创意就越多,同时也会使生成的图像越偏离原始图像。
[*] Upscale by 放大倍率直接按照二维尺寸的倍率进行调节。
[*] Resize width to 将宽度调整到 Resize height to 将高度调整到 宽度和高度直接调整到详细的像素值。
Width 宽度/Height 高度
设置你要生成出的图像的长宽像素数值(建议512*512或512*768);
https://img-blog.csdnimg.cn/img_convert/1a202e10acaec12cf6e4bbabaf09ba4b.jpeg
Batch count 生成批次
每点一次生成按钮生成批次的数量,即生成几批次图片(对于VRAM利用效率没有影响),比如设置为4,就相称于重复了4次生成(可以明白为单线程做4次);
· Batch size 每批数量
每批次生成图片的数量(以很高的VRAM利用效率为代价以提高生成数量),比如设置为4,就相称于一张4倍幅面的大图里分4个区域生成4张小图(可以明白为4个线程同时做);
如果要生成多个图时,Batch count(生成批次)与Batch size(每批数量)这两者建议选前者。前者耗时比后者少一些。显卡性能好的,可以选后者,否则生成进程会因显卡吃不消而瓦解终止。
· CFG Scale 提示词相干性
https://img-blog.csdnimg.cn/img_convert/0d255671ec6d12c2f26c2ee47b52cd52.jpeg
CFG Scale 提示词相干性是经常会用到的概念,它代表着要生成出的图像与你输入的“提示词”之间的语义关联程度。数值越大关联程度越高。对于512的小图片CFG数值凌驾10可能会导致过分拟合而产生图片崩坏问题。所以一样平常建议设置在5-9之间。大图片保举10左右。
· Seed 随机种子
Seed种子概念也是经常用到的。如果你已经生成出一张接近满意的图片时,还需要生成更多类似如许构图及构图元素的图片,只是需要细节上有一些变化,以增加更多选择时,就可以用到Seed的这个概念。把之前那张接近满意的图片的Seed值拷贝到这里,则让AI继承生成类似的图片。如果不盼望延续,则设为-1,即不利用Seed(点击骰子 按钮即可设置为-1,点击绿色环保小按钮则从当前图生成区域刚刚生成的图片中提取Seed值到此)。
Extra 为差异随机种子,勾选后,会增加另一个种子“Variation seed差异随机种子”,此时填入这第二个种子,则意味着让AI在两个种子之间进行均衡。Variation strength差异强度滑块越靠左接近0则越倾向于第一个Seed,越靠右接近1则越倾向于第二个Seed。
随机种子(seed)的用途就是固定生成图片过程中所产生的随机数,从而在下次生成图片时最大限度地进行还原。固然纵然我们利用了随机种子也不能做到100%地还原,最多算是一种参考。因为随机种子虽然固定了随机数,但是AI算法自己就有随机性,就算利用了随机种子还是会因为随机性带来生成图片的偏差,所以随机种子只能最大限度的降低随机性。
· Script 脚本
https://img-blog.csdnimg.cn/img_convert/bf021518b18083e7a7fb085558c681e2.jpeg
Script脚本中有若干过往用户开发的功能脚本,有些被固化在了默认安装中。可以到 SD-WebUI 的官方github上去下载额外的脚本。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Custom-Scripts
这其中有两个脚本是我们以后会经常用到的:一个是Prompt matrix(提示词矩阵) Prompt matrix 可以让AI按照不同的提示词生成图片矩阵。如果我们有一大堆提示词要输入,但是你想要相识大概不确定其中几个提示词的组合效果,那么你需要多次生成,效率低也不方便。而启用了这个脚本后,可以利用“ | ”语法分割提示词,如许会组成多个提示词组合让你一次性地看到矩阵效果,让你一目了然。举例:
1girl, | yellow dress, | long dress,
https://img-blog.csdnimg.cn/img_convert/2ad8147e7a8d2f1a3209dc48f3f064f8.jpeg
另一个是x/y/z plot(x/y/z 图表)
无论是初学者还是有一定履历的用户很多时间也不能确定各个参数到底取哪个值是最符合需求的,这往往需要很多参数之间的均衡。x/y/z plot脚本可以让我们创建一个最多三维的参数矩阵图表,让我们清晰地相识参数间的匹配关系。
举例:
X type:steps 。
X values:8,12,16,20,25 。
Y type:Clip Skip 。
Y values:1,2,3
1girl, yellow dress,
https://img-blog.csdnimg.cn/img_convert/8314dba67de558119b8025a4dec72742.jpeg
5.附加功能区域
https://img-blog.csdnimg.cn/img_convert/a7796a6627b0ab3f9124138766a9c4e6.jpeg
附加功能区是插件的聚集地之一。在这里有一个SD中最闻名的插件,也是我们以后利用频率最多的功能——ControlNet。
ControlNet可以让我们很好地对Stable Diffusion进行精准控制,尤其是人物的姿态,场景的深度等等。可以说,是ControlNet让SD进入到了CG的专业应用领域。
此处,还有很多其他闻名的插件,比如Adetailer、FaceEditor、Composable LoRA 等等 。
之后我们会对这些进行详细解说和实战案例展示。
6.图片生成区域
图片生成区域是我们终极的作品呈现的区域
https://img-blog.csdnimg.cn/img_convert/7218a365b6d2292617952bd0ce09df00.jpeg
[*] 我们可以通过这个区域下方的文件夹按钮直接打开已经生成的图片所存储在的硬盘空间中的位置;
[*] 可以选择存储生成区域的图片到指定的硬盘空间中;
[*] 或压缩文件然后下载到硬盘里;
[*] 也可以把刚刚生成好的图片发送到图生图标签下、或局部重绘功能区(在图生图标签下的一个子功能区)、附加功能区(Extras);
[*] 在图片生成区域最下方是本次生成的图片的所有信息,包括“提示词”、 Steps,Sampler, CFG scale, Seed, Size,用到的大模型,Clip skip 等等。我们在网上的AI图库中看到各式各样的图,这些图片往往附带一系列的参数供我们研究,其实就是这个区域里的信息。
7.页尾版本信息区域
https://img-blog.csdnimg.cn/img_convert/a73442598d804d5fde181bace572ca3d.jpeg
[*] 该区域可以看到Stable Diffusion 的版本号,还有各种运行环境的软件版本;
[*] 你可以点击上面的API、Gitub、Gradio在网络上的有关WebUI的详细介绍;
[*] 可以点击检察启动信息startup profile;
[*] 点击Reload UI 可以重启WebUI。
写在末了
感兴趣的小搭档,赠予全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,详细看这里。
https://i-blog.csdnimg.cn/direct/4fc9bf35fdb64c969933ac071982dda6.jpeg
AIGC技术的未来发展远景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算体系具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术精密结合,在更多的领域得到广泛应用,对步伐员来说影响至关重要。未来,AIGC技术将继承得到提高,同时也将与人工智能技术精密结合,在更多的领域得到广泛应用。
https://img-blog.csdnimg.cn/direct/e6a8b48b8024497daecb9d6652c72bb7.png#pic_center
一、AIGC所有方向的学习门路
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
https://img-blog.csdnimg.cn/direct/af6e2f485a4f485d9b76a93afa81a02f.png
https://img-blog.csdnimg.cn/direct/7d91365d8b3a45aba258f4603c71dc5c.png#pic_center
二、AIGC必备工具
工具都帮大家整理好了,安装就可直接上手!
https://img-blog.csdnimg.cn/direct/01a2ea000b474fef83abfd18888b2e38.png
三、最新AIGC学习笔记
当我学到一定底子,有自己的明白能力的时间,会去阅读一些先辈整理的书籍大概手写的笔记资料,这些笔记详细记载了他们对一些技术点的明白,这些明白是比较独到,可以学到不一样的思绪。
https://img-blog.csdnimg.cn/direct/9e597a6fae9344cea8f4a9caf30ecc55.png
https://img-blog.csdnimg.cn/direct/f2619de95125425d8a19b85ce2ff1894.png
四、AIGC视频教程合集
观看全面零底子学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思绪,从底子到深入,还是很轻易入门的。
https://img-blog.csdnimg.cn/direct/ce803d0289b84736b059293d696429b6.png
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时间可以搞点实战案例来学习。
https://img-blog.csdnimg.cn/direct/373dd1f17ed14db1a2fa4dfec03c0559.png
https://i-blog.csdnimg.cn/direct/b34955a90e234a90afec27962ce9e2c2.jpeg
如有侵权,请接洽删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]