梦应逍遥 发表于 2025-4-17 19:51:33

超详细的 Stable Diffusion Webui入门教程(二)底子操纵

媒介

工欲善其事,必先利其器!本日我们聊聊 Stable Diffusion WebUI 的底子操纵以及各个参数都代表了什么。
还没有安装 SD的小同伴,移步我前面的文章:
超详细的 Stable Diffusion
Webui入门教程(一)快速安装与启动
AI工具SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,无需自行查找,有需要的小同伴下方扫码自行获取。
https://i-blog.csdnimg.cn/direct/f41f4e8c4e754cb3a992a68a0d3d1f6d.jpeg 一、大模型的切换

在 Stable Diffusion (以下简称 SD)的背景下,大模型通常意味着,它能够更准确地明白给定的文本提示,天生更符适用户期待的图像。
这些大模型通常是通过使用大规模数据集训练出来的,这些数据集包含了大量的图像和相干的文本形貌。
总的来说,“大模型” 在 SD 中指的是一个大型的、参数浩繁的神经网络,它具有天生高质量图像的能力。但相应地,也提出了更高的数据和盘算要求。
1.1 在 SD WebUI 中如何切换大模型
如图:界面左上角,在这里可以切换你所安装的模型。
https://img-blog.csdnimg.cn/img_convert/2c1dce7633a7f7ba10de82b1e2808c9a.png
1.2 如何获取大模型
获取大模型的首选就是 C 站:https://civitai.com/。
当然国内也有一些网站可以下载大模型,比如 哩布ai,这里我们以C站为例举行讲解。
https://img-blog.csdnimg.cn/img_convert/64a8dbe3e3b19240d3ffbf4cef8983a4.png
如图所示:选择 Checkpoint,然后在输入框输入要下载的模型名
https://img-blog.csdnimg.cn/img_convert/f6b6c40f9a67dea8335c6c8b3b19a2d5.png
模型下载下来后,放入指定文件夹下,然后点击反面的革新按钮即可使用。
1.3 大模型存放路径
下载下来的模型文件要放到指定目次下:SD 根目次\models\Stable-diffusion ,比如我这里是 sd-webui-
aki-v4.5\models\Stable-diffusion
https://img-blog.csdnimg.cn/img_convert/d8068e85091abf8116efb743d2c5dbd2.jpeg
二、模型的VAE

VAE 的全称是 Variational Auto-Encoder,翻译过来是变分自动编码器,本质上是一种训练模型,Stable Diffusion 里的
VAE 主要是模型作者将训练好的模型“解压”的解码工具。
如今的大模型一般都内嵌了 VAE 属性(不需要再下载 VAE 文件)。一般情况下我们就选择第一个 自动 就行了。
https://img-blog.csdnimg.cn/img_convert/02d08fdf4f6b54d3cb56b33b3a8964c9.png
有的模型需要指定 VAE,那么在下载大模型的时间,同时也要把指定 VAE 下载下来。在 C 站下载模型,在下载页面会有文件体现,如图所示:
https://img-blog.csdnimg.cn/img_convert/6111523eb2ff8aa237eece74c4df5229.png
2.1 VAE的安装路径:SD目次\models\VAE
https://img-blog.csdnimg.cn/img_convert/eeb89e2b746625ef1c905da8ffa7c481.png
三、功能选项
在这一部分,我将重点表明一些关键的功能。
3.1 文生图
Stable Diffusion 提供了一个独特的特性,那就是反向关键词功能。
反向提示词答应用户指定他们不希望在图像中出现的元素,这与 Midjourney 不同。但是在关键词格式上与 Midjourney 大致相似。
https://img-blog.csdnimg.cn/img_convert/f2cac2508a47f4d5e4565e490c37990a.png
下面这块参数就是设置图片的一些基本参数,比如分辨率、尺寸等等,具体参数见下文。
https://img-blog.csdnimg.cn/img_convert/afb3d548692da0ad2abb1465791adc6f.png
3.2 图生图
这一功能很直观:用户提供一张参考图片,并输入相应的提示词,便会根据这些信息天生新的图像。这一点 Stable Diffusion 与市面上其他 AI
绘画软件保持了同等性。反面我会再讲解一些更高阶的玩法。
https://img-blog.csdnimg.cn/img_convert/d2e032e3cb3256d12a81132d2db43194.png
3.3 图片信息功能
当你使用 Stable Diffusion
来绘制一张图像后,你可以在该功能区域上传这张图片。随后,会在界面的右侧部分展示出这张图像的相干参数,包罗用于天生该图像的关键词、seed值、尺寸等。
如许的设计便于用户明白和追踪图像天生的背后逻辑及其构成要素。然后可以再发送到文生图或图生图等功能界面,举行进一步创作。
https://img-blog.csdnimg.cn/img_convert/90a7d0b02c232a3a2a826a2c3a8e5dec.png
3.4 训练功能
用户可以通过这个选项来训练自己的个性化模型。
这项功能对于新手来说可能不太常用,但对于希望深入把握和利用 AI 为自己的工作流量身定制解决方案的用户来说,它黑白常有价值的。
这个是我猛烈保举的焦点特性之一,由于它为用户提供了极大的灵活性和自界说能力。
https://img-blog.csdnimg.cn/img_convert/dd2d554bb820f3e5b1a757e0ef1704ad.png
3.5 设置界面
就是常规的设置选项,小同伴们直接研究下就好了。
https://img-blog.csdnimg.cn/img_convert/cca5cf52b1e32ee88591895c10b73560.png
3.6 扩展功能
这个也是常用的功能,这个跟插件的扩展相干,SD 之所以强大离不开丰富的生态社区,反面我们会详细展开来说。
https://img-blog.csdnimg.cn/img_convert/8e4967d76483c408e306690e56ae0cd0.png
四、正向提示词和反向提示词
在 SD Webui 中创作数字艺术或举行图像天生时,你可以通过输入你想要描画的元向来驱动创作过程。
将这些元素列在正向提示词框内,必须使用英文且词间以半角逗号分隔。
同时,如果有你不希望出如今作品中的元素,可以在反向提示词框内列出。此框同样只接受英文输入,并且要求使用英文半角符号。这种方法使得创造过程更为精准,便于实现具体的创作意图。
https://img-blog.csdnimg.cn/img_convert/1f731bb29d2d50bc4b2303916d387684.png
通常情况下,提示词中越靠前的词,权重就会越大,比如上面图中的提示词:
1girl, solo, hand fan, looking at viewer, long hair, holding, upper body,
holding fan, black hair, chinese clothes, ((sparkle)), hair bun, simple
background, red lips, flower, hanfu, long sleeves, closed mouth, single hair
bun, paper fan 女孩,独奏,手扇,看观众,长发,手持,上身,手持扇,黑发,中式服装,闪闪发光,发髻,背景简单,红唇,花,汉服,长袖,闭口,单发髻,纸扇
天生的图形主体就是手特长扇的女孩:
https://img-blog.csdnimg.cn/img_convert/d33970cf802f3200f27c64f4f224d908.png
在这里有效过 Midjourney 的小同伴可能就有疑问了,((sparkle))是什么意思,为啥有这么多括号,我来为各人解答下,这个增长权重的意思,类似
Midjourney 的 ::。
① 最直接的权重调节就是调解词语顺序,越靠前权重越大,越靠后权重越低,前面我们也提到过。
② 可以通过下面的语法来对关键词设置权重,一般权重设置在 0.5~2 之间(一般不保举超过1.5),可以通过选中词汇,按 ctrl+↑↓
来快速调节权重,每次调节为 0.1,也可以直接输入。
https://img-blog.csdnimg.cn/img_convert/03a94d4fc0ba1126ceb38758d89949cf.png
五、功能按钮
5.1 天生按钮
顾名思义,输入关键词,参数调解好后,点击天生绩开始天生跑图了。
https://img-blog.csdnimg.cn/img_convert/7ff034753adcddb4662a0aa3b745c780.png
如图第一个按钮 :它的功能是读取你上一张图的所有参数信息(包罗关键词)。
https://img-blog.csdnimg.cn/img_convert/66dc1554b6411763fe7f459b10e06987.png
上图第二个按钮 :不常用,单独单开一个窗口,举行提示词的输入,输入完成后点击提交就会提交到提示词框中。
https://img-blog.csdnimg.cn/img_convert/566dab373b538234c9aa2710cc2262ed.png
第三个按钮 :就是删除了,清空提示词和反向提示词中的关键词;这里可以和第一个按钮结适用哦。
https://img-blog.csdnimg.cn/img_convert/7af480b99a61e00221518a9ef128e0dd.png
第四个按钮 :就是体现/隐藏扩展模型,便于管理模型。
https://img-blog.csdnimg.cn/img_convert/2df679d266fb0df18b63f685ce3b5f62.png
点击该按钮后会出现以下界面,如图所示:自己所安装的模型和Lora都可以在这里调解。
https://img-blog.csdnimg.cn/img_convert/307b4759b778e0ad040bb1c2c3aaa15b.png
如图第五个按钮 :把当前选中的预设提示词,添加到提示词框中。
首先在预设样式中选中预设提示词,然后点击该按钮后该预设样式的提示词就会提交到提示词框中。
https://img-blog.csdnimg.cn/img_convert/74e809780c0fa85771b3bf05e5bcc992.png
如图末了一个按钮 :把当条件示词框中的提示词,生存为预设提示词,便于以后使用。
点击该按钮后,会有提示框弹出,填写完提示词名称,后点击确定,就会生存该提示词到预设。该按钮可以和第五个按钮结合使用。
https://img-blog.csdnimg.cn/img_convert/e1776e02b8d55d566d396a8c2df5fb7a.png
六、采样迭代步数
通常情况下,迭代步数在 20—30 范围内即可。采样步数过低可能会造成图像渲染不完整,而过高的采样步数对天生图形的质量没有显着的提升。
因此,除非目标是创造一幅极尽细节描画的图像,否则没须要使用更高的采样步数。由于,进步采样步数会使得图像天生速率变慢。
https://img-blog.csdnimg.cn/img_convert/e2de48cf49d448e94ce97c93950b4160.png
七、采样方法
Stable diffusion webui 是将 Stable Diffusion 实现可视化的图像用户操纵界面,它本身还集成了很多别的有效的扩展脚本。
此中 SD 中的采样方法就非常的多,这里我们只介绍几个种常用的。
https://img-blog.csdnimg.cn/img_convert/d6c4110f9d1a58c78aef908778c3ca4d.png
SD 中默认是体现全部的采样方法,但是我们常用的就是那么几个。因此,我们可以去设置里面,把不需要用到的关掉,如许界面中就会只体现我们常用的那几个。
**注意:**修改设置后,要报存,然后点击右边的重启 UI 修改就访问效。
https://img-blog.csdnimg.cn/img_convert/231e7e10dd69902aaa3285dd4c8b1434.png
八、高清修复和图片尺寸参数
在这里对面部修复做个简单的介绍,它对写实的风格有点效果,但是平铺天生的图片很奇怪,个人不保举使用。反面会介绍更好用的面部修复的方法。比如ADetailer。
https://img-blog.csdnimg.cn/img_convert/161248776bc49c72fdeb50145add6a3b.png
高清修复
,高清修复的意思是把底子天生的图片,按照你选择放大的倍率放大到指定分辨率之后再重新绘制图片,受到你重复幅度调节的数值影响,保举重绘幅度不要超过0.7。
放大算法 保举使用 R-ESRGAN 4x+ (写实风格)和 R-ESRGAN 4x+ Animate6B (二次元风格)。
宽度、高度 就是图片的长宽比,很容易明白,天生批次和数目就是几批,一批几张图,配置好的可以直接拉满,增长效率哦。
**提示词相干性,**图像与你的提示的匹配程度。增长这个值将导致图像更靠近你的提示(根据模型),但它也在肯定程度上降低了图像质量。可以用更多的采样步调来抵消。
https://img-blog.csdnimg.cn/img_convert/e0faa1cdb523b5ff8b7b28d54fbe2dd7.png
九、seed-随机种子
这里的 seed 与 Midjourney 的 seed 功能一样。
如果固定随机种子,那么可以多次天生相同(或几乎相同,如果启用了 xformers)的图像。
如果对已经天生的图像基本满足,只是稍微改变你的输入参数,以前产生好结果的种子很可能仍然会产生好结果。
https://img-blog.csdnimg.cn/img_convert/64553a888fe4a9ac7bd84a6caba82d0a.png
9.1 如何获取种子
天生图后,会在下方出现该图的具体参数,此中包罗种子,如图:
https://img-blog.csdnimg.cn/img_convert/ccf3eb3a589e6f9c1fd869c374689803.png
9.2 差别随机种子
需要勾选这个按钮,才会出现
https://img-blog.csdnimg.cn/img_convert/fde2098b4184f36dff41e4a09850b3b2.png
差别随机种子的功能是固定一个种子,然后调解差别强度来天生图片,由于是固定的 seed 值,所以天生的图风格都是类似的。直接看效果:
https://img-blog.csdnimg.cn/img_convert/749e6d76e9929202d75ecff5c1a68543.png
https://img-blog.csdnimg.cn/img_convert/b6d7e55fe1e3d6f59de3eceb0dd7e3f9.png
关于 Stable Diffusion WebUI 的底子操纵我们就介绍到这里。
以上就是本期全部内容,希望对你有所启发和资助。如果你觉得这篇文章写得不错,就动动小手为我点赞、关注并转发吧,让更多人也能get到这些实用的干货。你也可以在留言区打卡,说说最期待看哪方面的内容,我们下期再会!
小同伴们赶紧练习起来吧!
接下来,我们会有关于插件使用和模型部署的更多内容。希望能帮到各人。
AI工具SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,无需自行查找,有需要的小同伴文末扫码自行获取。

关于AI绘画技术储备

学好 AI绘画 岂论是就业照旧做副业赚钱都不错,但要学会 AI绘画 照旧要有一个学习规划。末了各人分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小同伴们一点资助!
对于0底子小白入门:
   如果你是零底子小白,想快速入门AI绘画是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案
包罗:stable diffusion安装包、stable diffusion0底子入门全套PDF,视频学习教程。带你从零底子体系性的学好AI绘画!
https://i-blog.csdnimg.cn/direct/f41f4e8c4e754cb3a992a68a0d3d1f6d.jpeg 零底子AI绘画学习资源介绍

页: [1]
查看完整版本: 超详细的 Stable Diffusion Webui入门教程(二)底子操纵