ToB企服应用市场:ToB评测及商务社交产业平台

标题: Stable Diffusion:从入门到精通 [打印本页]

作者: 刘俊凯    时间: 2024-8-29 03:45
标题: Stable Diffusion:从入门到精通
​从最初的安装与设置,细至界面功能的详解,再至实战案例的制作,以致高品格模子的下载,每一步骤皆有过细的引导,且以一个个生动的例子予以演示,不仅令诸位不再只是枯燥地观摩,更能让你们阅后即行,轻松创作出相似的绘画之作。

文末领取AI绘画学习资料包



同时,无论是安装包、庞大的模子,还是Lora,以致关键词文件,均已妥善地打包,无需自行翻找,节省了不少心力。期望这篇教程能够让各位轻松掌握稳固扩散技能,只需阅读此文一篇,即可心满意足!




一、为什么要学习使用Stable Diffusion
1.1  Stable Diffusion醒目嘛?它是有多强大?
Stable Diffusion的应用领域包括:真人AI美女,生成头像、壁纸、绘画辅助
我相信各位在欣赏视频时,多多少少已经见过许多由人工智能生成的艺术绘画作品。下面详细的分别先容。
1.1 真人AI美女/女友
我们最常看到的就是这些真人AI美女的账号



1.2 绘画辅助
SD也可用于帮忙绘制动漫画、插画等作品,例如线稿上色或获取图画的线稿等。


1.3 生成头像、壁纸
已往,人们常常花费款项请他人定制独特的头像或壁纸,而现在,SD可以用来制作个性化的二次元头像、盲盒模子或者定制壁纸。



1.2 Stable Diffusion是什么?
Stable Diffusion的定义:
简而言之,Stable Diffusion(简称SD)是一种人工智能生成图像的软件。通过输入文字描述,SD能够生成对应的图片,无需像以往那样需要手工"绘制"或"拍摄"照片。
有人可能会问,学习一个软件之前是否需要先相识其原理?我的回答是:不需要!
下方是我在网上保存的SD的原理图,能看懂吗?看不懂,我也看不懂。这会影响我们的使用吗?完全不会!
许多人想学习Stable Diffusion,在网上搜索后,大多数教程都会首先先容SD的原理。然而,这一步骤却让许多人望而却步,不再继续学习。因为看起来似乎非常复杂和困难。
究竟上,我们大多数人只需要能够熟练使用SD,而无需深入研究其原理。我们还有自己的学习和工作。因此,我们的目的是以更少的时间快速入门Stable Diffusion。当然,如果你有足够的时间和兴趣去深入相识SD的原理,那也是可以的。
我提及这些是为了告诉各人,学习SD真的非常简单!本文将通过一系列案例,实际操作生成各种照片。
相信当你阅读完本文并亲自尝试之后,你将能够快速上手Stable Diffusion!
接下来,我们将正式开始使用Stable Diffusion!

二、3分钟教你快速部署Stable Diffusion
1.MacOS系统本地部署教程:
Stable Diffusion搭建教程(MacOS)推荐:MacOS系统(M1/M2)安装AI绘画StableDiffusion保姆级教程
2.Windows系统本地部署教程:
使用条件留意下:
为了确保各人能顺遂安装和使用Stable Diffusion(简称为"SD"),在正式安装之前,我发起各人先查抄一下电脑的设置。请留意以下两点:

最核心的关键点:看显卡、看内存、看硬盘、看CPU。其中最重要的是看显卡,显卡N卡(英伟达Nvida显卡,A卡用不了),最低10系起步,显存最低4G,6G及格;内存最低8G,16G及格;硬盘可用空间最好有个500G朝上,固态最佳,机械硬盘也没多大问题。CPU其实没太大要求,有好显卡的,CPU一样平常不会很差。

本地部署正式开始:
小白解压即用
电脑设置能支持SD运行的朋友们,接下来我会手把手教你安装SD的本地部署,这里我们用到的是B站秋叶分享的整合包,小白直接下载整合包可以避免许多困难。整合包点开链接就能下载保存啦
下载链接
https://pan.quark.cn/s/2750beda9269

①请点击上述链接,下载并保存到你的电脑本地。
②打开你保存的文件夹,在文件夹中找到《整合包主包》=》《1.秋叶整合包主包》,右键点击该文件,然后选择"解压文件"。
③选择将文件解压到D盘或E盘,留意不要占满C盘!点击"确定"。
⑤解压完成后,安装启动器的依靠环境.net core 6.0。点击"安装"。


⑥打开刚刚解压的SD根目次,找到启动器文件。右键点击启动器,选择"发送到",然后选择"桌面快捷方式"。
这样下次就可以直接从桌面双击启动器进入,无需每次都去文件夹中探求。


⑦双击启动器,等待更新完成。然后点击左侧的"高级选项",在"显存优化"中根据你的显存选择(即上面检察的专用GPU内存),
选择与你的电脑显存相对应的选项。
⑧返回到第一个一键启动界面,点击右下角的"一键启动"按钮。


如果出现代码页面,请不消理会,稍等片刻!SD的主界面将主动在欣赏器中弹出。
如果在上述页面出现错误,请返回初始界面,点击左侧的"疑难解答",然后点击右侧的"开始扫描"。
最后点击"修复"按钮。
下方是SD的主页面。不要被这个复杂的界面吓到,实际上,我们在基础使用中并不需要使用所有的功能。



3.云端白嫖部署玩法:
AI绘画StableDiffusion:云端在线版免费使用条记分享(Kaggle版)
免费2:https://www.liblibai.com/


4.低设置电脑的云端玩法:
对于那些发现自己电脑设置可能无法胜任SD的朋友们,不消担心,通过云平台,我们仍然可以恣意享受SD的乐趣,创作出精美的图片。
云平台就比如我们长途控制设置更好的电脑,在别人的电脑上使用SD生成照片。这里推荐的是"青椒云"平台,如果各人知道其他更好用的平台,也欢迎分享!点击下面的链接即可下载青椒云:
https://account.qingjiaocloud.com/signin
以下是云平台的使用方法:












这样,纵然你的电脑设置有限,你仍然可以通过云平台畅玩Stable Diffusion,创作出惊艳的作品。祝各人玩得开心!



三、小白快速上手Stable Diffusion
1.模子用对,出来的照片才对味儿
在使用Stable Diffusion之前,我们需要确定我们想要生成的照片风格
例如二次元动漫、三次元现实照片或盲盒模子等。
根据不同的照片风格,我们需要切换不同的大模子
在SD界面的左上角,可以找到"Stable Diffusion模子"选项。如下图:


假如现在我想生成一个真人AI小姐姐,那就选用chilloutmix的大模子

那么问题来了,我们这些模子从哪来呢?下载的模子放在哪里呢?
在我分享给各人的链接里面,有部分比力常用的大模子
各人可以根据文件夹名称找到需要的模子。
另外,这篇文章的第三部分会跟各人详细先容去哪里下载模子,模子存放的位置,以是肯定要看到最后!
2.写好关键词Prompt,让你事半功倍
输入关键词(prompt)是生成照片的关键步骤。关键词告诉SD我们盼望生成的照片内容。输入的关键词越准确,生成的照片就越靠近我们想象中的画面。


(1) 正面关键词:
其实要生成一张照片,最重要的就是关键词,
关键词里写的就是你盼望照片里会出现的内容
输入的关键词越准确,出来的照片就会越靠近自己脑海里的画面!
那怎么写关键词呢?
可以按照以下公式编写关键词:画质+主体+主体细节+人物服装+其他(背景、气候、构图等)。
写关键词的时间,可以先考虑照片质量的词语,例如"最高质量"、"超高清画质"、"大家的杰作"、"8k画质"等。然后写出照片的内容,包括主体和细节描述,如人物外貌特性、服装、配饰等。
比如说我现在想要生成一个漂亮的小姐姐站在大街上
那我就可以写成:1女孩,漂亮,站着,大街
或者是:1漂亮女孩,站在大街上
又或者我直接写一个句子:1个漂亮女孩站在大街上
上面三种单词、词组、短句的方式都可以,
我们比力常用的就是直接输入一个个单词,然后这些单词用英文状态下的逗号隔开
留意:SD只能识别英语,但我们也不消担心,直接用翻译就可以啦!


接下去点击生成:


稍等一会,在你在SD的第一张图就出来啦!


是不是许多小伙伴已经按捺不住去试了试呢,出来的照片是不是有点不尽人意!
那是因为我们上面输入的关键词太过于简略啦
这里是我上面这张图输入的关键词


看到这一大串英文万万别害怕!写关键词也是有模板的
模板如下:画质+主体+主体细节+人物服装+其他(背景、气候、构图等)。
首先上面第一行的关键词可以先不看,那是我们等一下要学到的lora模子

画质:
在写跟我们照片有关的关键词之前,我们可以先写一些照片质量的词语,这样出来的照片会更加精致
比如说我们可以写:最高质量,超高清画质,大家的杰作,8k画质等等...
翻译成对应的英文就是:Highest quality, ultra-high definition, masterpieces, 8k quality,

主体内容:
写完质量词,接着就是我们照片的内容
先写的就是照片的主体,和对主体的细节描写
比如我们是要生成一个女孩,就要写出来一个女孩,以及这个女孩长什么样也可以写出来
也就是:一个女孩,非常精致的五官,极具细节的眼睛和嘴巴,长发,卷发,精致的皮肤,大眼睛
翻译成英文就是:1girl, very delicate features, very detailed eyes and mouth, long hair, curly hair, delicate skin, big eyes,
这些照片内容各人都是可以随意改的,但是像精致的五官、细节的眼睛这类词语,各人可以都加上去

写完五官之后,我们就可以想一下让照片的人物穿什么衣服,裤子,或者加上帽子之类的配饰
像裙子、毛衣、牛仔裤、比基尼都可以,还可以写上衣服的颜色
比如:白色的毛衣、项链(white sweater, necklace,)

最后我们就可以写上其他七零八落的东西,比如背景、气候、照片姿势、构图等等
比如说:在街上,阳光,上半身照片(street, Sunshine, upper body photos,)

好啦,这样一套下来,我们的关键词就写的差不多了
推荐各人像我这样一行一行分开类型去写关键词,这样背面想要改词更好找
但肯定要留意每一行的最后要加上英文逗号,否则它就会跟下一个单词连起来酿成一个新单词


最后在总结下关键词公式,加深下印象:
画质+主体+主体细节+人物服装+其他(背景、气候、构图等)


好,现在我们新生成了一张照片,但是发现她并没有我关键词里的卷发,
那我怎样才能让“卷发(curly hair)”引起Stable Diffusion的留意呢?

那就是给关键词加权重,加权重的方法有两种:
1.直接用括号把关键词括起来:(curly hair)
这样括号一次就是1.1倍权重,那括两次((curly hair))就是1.1×1.1=1.21倍,以此类推
留意:这里的括号也是英文状态下的括号
可以加权重,那我们也可以减权重
减权重就是用"[]"把单词括起来,如:[curly hair]
2.(关键词:数值)curly hair:1.6)
这就是在第一种的基础上加上数值,直接一个curly hair是1,大于1就是加权重,小于1就是减权重




(2) 负面关键词:
如果你不盼望照片中出现某些内容,可以使用负面关键词告诉SD。例如不盼望出现低质量、多余的手指、不悦目的脸等。

新手小白可以直接抄!(文章最后有关键词链接,里面可以直接复制)
模板1:
(worst quality:2), (low quality:2), (normal quality:2), lowres, ((monochrome)), ((grayscale)), bad anatomy,DeepNegative, skin spots, acnes, skin blemishes,(fat:1.2),facing away, looking away,tilted head, lowres,bad anatomy,bad hands, missing fingers,extra digit, fewer digits,bad feet,poorly drawn hands,poorly drawn face,mutation,deformed,extra fingers,extra limbs,extra arms,extra legs,malformed limbs,fused fingers,too many fingers,long neck,cross-eyed,mutated hands,polar lowres,bad body,bad proportions,gross proportions,missing arms,missing legs,extra digit, extra arms, extra leg, extra foot,teethcroppe,signature, watermark, username,blurry,cropped,jpeg artifacts,text,error,
模板2:
paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), cloth, underwear, bra, low-res, normal quality, ((monochrome)), ((grayscale)), skin spots, acne, skin blemishes, age spots, glans, bad nipples, long nipples, bad vagina, extra fingers,fewer fingers,strange fingers,bad hand, ng_deepnegative_v1_75t, bad-picture-chill-75v,Six fingers, deformed hands,

当然你如果还有什么不想出现在照片上的东西,也可以自己加上去
到这里关键词所有的内容就讲完啦,分享的链接里还有常用的关键词分类
3.两分钟打造你的专属女友
通过输入关键词,我们已经能够生成稍微悦目一点的照片了。
但是如果你想生成多张相同的脸庞的照片怎么办?这时就要用到Lora模子了。


简单来说,Lora可以固定我们照片的特性:人物特性、动作特性、还有照片风格
点击“生成”下面的的第三个按钮,就会弹出新的选项框




点击我们要用的Lora,就会主动添加到关键词的文本框里面
前面那四张照片用到的就是这三个Lora,由此可见,我们的Lora是可以叠加使用的
但是发起新手不要使用太多lora,
因为这样照片出问题了,你也不知道是哪个Lora有问题
另外,Lora之间一样用英文逗号隔开

每个Lora背面都有数字,这是用来调解这个Lora的权重的,
正常情况下是1,我们一样平常只会去降低权重,因为增长权重照片可能就会变得奇希奇怪
每个Lora设置的权重不一样,出来的照片就会不一样
想要生成一个悦目的小姐姐,就要多去尝试不同的权重组合

现在问题又来了,我们怎么选择Lora呢?
这个问题就要回归到你最开始想要生成什么样的照片
你想生成真人模特,你在最开始用了真人的大模子,对应的我们的Lora也要选用真人模特,
这样出来的照片效果才更好!

一些比力悦目的Lora已经打包好了放在文章的末端
后续挖掘到更悦目的Lora也会分享给各人!

各人可以通过添加不同的Lora,调解权重,
生成你独一无二的小姐姐
​更多AI绘画知识
4.为什么你生成的图跟别人不一样
当使用相同的大模子、关键词、Lora模子和其他参数时,生成的图像可能与他人不同,其中一个影响因素是随机数种子(Seed)。
随机数种子控制了图像生成的底层形状,雷同于画画时最开始的线稿。它决定了图像的基础表面,包括人物的形状表面、姿势和站位等。
当随机数为“-1”的时间,SD就会随机给你的照片生成一个种子,这个种子就明白成不一样的线稿就可以
你可以在生成的图像下方检察英文字符串中的seed值,以相识当前生成图像所使用的随机数种子。


要生成与他人相似的图像,需要确保所有参数(包括随机数种子)与他人完全相同。只有当所有参数都相同时,我们才能生成与他人靠近的图像。
5.一分钟生成自己的二次元造型
各人有没有试过花二三十块钱,把自己的照片发给别人,让人家帮自己生成一张二次元画风的照片拿来当头像
然后别人含泪血赚19.9,还有一毛钱是电费
今天看到这篇文章你就省钱啦!
Stable Diffusion不消一分钟,不管你是要2.5D还是2D的照片,它都能生成!

这里我们用到的是图生图里面的功能
我们是要用自己的照片生成一张二次元的照片
肯定要记得换大模子!!选一个能生成二次元照片的大模子就可以


至于正面关键词呢
我们只要输入照片质量和主体内容相关的关键词就可以
比如我这里输入的就是:高质量,高清画质,大家杰作,极致的细节,8k,主体就是一个女孩
负面关键词我们就复制前面给各人的就可以啦

接着我们就在这个空白的地方点击上传自己需要生成的照片


接着鼠标往下移,找到“重绘幅度”
重绘幅度的意思就是你要改变你原来照片的程度

当你的重绘幅度拉到1,这时间就相当于要完全改变你的照片,生成出来的照片就跟原先的照片毫无关系了
这里如果各人是要生成二次元照片的,把重绘幅度拉到0.6~0.8就差不多了,
各人可以多试试几个参数


6.怎么给二次元老婆换衣服
假如我现在有一张非常悦目的照片,唯独我觉得她的衣服不悦目,
那我要怎么在不改变其它地方的情况下,给她换上更悦目的衣服呢?


点击右边的画笔可以调解大小,把人物衣服部分全部涂黑
接着输入关键词,先输入质量词(如:高质量,高清画质,8k等)
然后描写一下你想要生成什么样的衣服
比如我这里输入的就是:粉色汉服,精致的裙子,极具细节的服装
负面关键词就直接复制我们前面用的
点击生成绩可以啦!

同样的原理,我们还可以用这个功能来换脸,
只是我们涂黑的部分就酿成了脸,输入的关键词就是描写脸部、五官的单词。

上面的方法用来换衣服只能团体去换,
如果我想指定衣服的颜色就只能在关键词里面告诉SD要怎么调解
假如现在我想指定服装的颜色,比如:蓝色的衣袖,粉色的衣服,还要有黄色的花纹
这时间我们只靠关键词是不行的,出来的照片也不肯定准确
那我们就可以用到一个新的功能——“涂鸦重绘”


导入照片之后,在右边调解画笔大小和颜色,然后就可以自己计划衣服的颜色啦


关键词就像前面说的那样输入就可以啦,
每次点击生成都能出来不一样的衣服


7.两步轻松搞定模糊的照片
SD除了生成新的照片外,还可以用来修复我们比力糊的照片
出来的效果比大多数软件都要好!
这个规复画质的功能在SD里叫“附加功能”,点击下面空白的地方上传图片


接着我们看到下面这个“Upscaler 1”,也就是放大器
修复二次元动漫的照片就选“R-ESRGAN 4x+Anime68”
其他实物照片就选“R-ESRGAN 4x+”
其他放大器出来的效果都没有这两个好


修复人脸:“GFPGAN强度”
这个是专门用来修复人脸的,把参数拉满(1)就行
8. 三秒教你获取大神的咒语
在网上常常看到别的大佬的图觉得很悦目,想要复制却复制不出来
但其实SD里面就有这样一个功能
把照片导进去,它就能识别出来这张照片用到的咒语或者关键词

方式一:“图片信息”
把照片导进去,右边就会主动弹出照片的信息,包括正面关键词、负面关键词,还有其他种子、大模子等信息


然后点击“生成”按钮下面的第一个小按钮,SD就会主动帮你把信息分配到符合的地方,用上一样的效果和模子
这时间点击生成,就能得到一张差不多一样的照片(条件是有一样的大模子和Lora)

图片信息没出来?试试下面的方式二吧。
方式二:标签器(Tagger)
偶然候我们把照片导入进去之后,发现右边并没有照片生成的信息
那就分析这张照片不是直接从SD下载下来的PNG格式的照片
那我们就没法用这个功能

但是我们可以用背面这个“标签器(Tagger)”
它可以帮助我们生成照片的关键词

通过以上两种方法,我们就可以获取到悦目的照片的重要信息!

以下先容都是和ControlNet有关。
ControlNet资料下载:https://pan.quark.cn/s/47bc8c79892a
9.一招让你自由指定女神/女友的姿势
现在我们已经能够生成美女的照片了,可以定制出独一无二的脸,换上更悦目的衣服。
但是,我们如何让照片中的人物摆出特定的姿势呢?只管我们可以通过关键词来描述动作,但生成的照片可能不太准确。
另一方面,使用图生成图的方法可能会导致人脸发生变化。
为相识决这个问题,我们可以使用"ControlNet"功能,中文翻译为控制网络。
简单来说,它可以用来控制照片中的线条,例如人物的动作和修建物的线条等。通过这个功能,我们可以更精确地控制生成照片的姿势。



首先要确保是否安装ControlNet插件,没有安装,在插件里面搜索并安装



详细的实操步骤如下:
首先,大模子和关键词我们还是正常的填写
生成一张我们我们想要的小姐姐的照片


正面关键词
masterpiece, highres, 1girl,blush,(seductive smile:0.8),star-shaped pupils,china hanfu,hair ornament,necklace, jewelry,Beautiful face,upon_body, tyndall effect,photorealistic, dark studio, rim lighting, two tone lighting,(high detailed skin:1.1), 8k uhd, dslr, soft lighting, high quality, volumetric lighting, candid, Photograph,
high resolution | best quality

负面关键词:
(((simple background))),monochrome ,lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, lowres, bad anatomy, bad hands, text, error, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, ugly,pregnant,vore,duplicate,morbid,mut ilated,tran nsexual, hermaphrodite,long neck,mutated hands,poorly drawn hands,poorly drawn face,mutation,deformed,blurry,bad anatomy,bad proportions,malformed limbs,extra limbs,cloned face,disfigured,gross proportions, (((missing arms))),(((missing legs))), (((extra arms))),(((extra legs))),pubic hair, plump,bad legs,error legs,username,blurry,bad feet





点击预处理的爆炸按钮就可以看到,模特的姿势被提取成了一个火柴人
里面的小圆点就是人体的重要关节节点
看看生成出来的照片,模特的姿势就几乎完全复刻出来了


10. 插画师的福音,线稿秒上色
随着AI绘画的普及,人们纷纷预测将来的画师可能会因此受到职业威胁。
然而,我们应该意识到,掌握AI绘画技能的画师将会比那些不认识这项技能的偕行具有显着上风。
试想一下,当其他人仍在为给线稿上色而花费大量时间时,掌握AI绘画技能的你却可以在一分钟内完成一张质量上乘的作品。
仅就工作服从来说,这已经让你领先许多。
以下是我在网上找到的一张线稿图,我使用了“ControlNet”功能和SD的上色技能,使其酿成了一张彩色照片。
接下来,我将详细先容如何操作"ControlNet":
首先,我们需要打开"ControlNet"的控制面板:
1.在面板的空白地区上传你的线稿图。
2.点击“启用”按钮。
3.点击“反转输出颜色”。
4.在模子选项中选择“canny”模子。


接下来,我们需要对之前的设置举行调解:
1.选择一个符合的大模子。如果你像我一样盼望生成二次元风格的图像,就需要选择相应的模子。
2.添加关键词。这和我们写文章的关键词选择雷同,首先你需要写出图片质量的关键词,例如“最高质量”或“大家级杰作”等。然后,我们就可以指定想要的颜色了,比如,我输入的是:“1可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛”。在最后,我还添加了一个简单的背景。如果你想让色彩更加过细,可以通过输入更多的关键词来控制图片的细节。
3.复制前面的关键词作为负面关键词。
如此操作,无论线稿多么复杂,在SD中都可以快速地举行上色,实现服从和质量的双重提拔。
最终效果如下:


11. 小白也能举行室内计划
ControlNet的另一个非常好用的模子MLSD:这个模子只能识别直线,以是只恰当拿来做房子的计划

1.首先点开“ControlNet”的状态栏:
2.上传你想要举行计划的房间的照片。
3.点击“启用”按钮。



在预处理器和模子的选择中,我们选取“msld”,这是一个专门用于计算房屋线条的模子。
接下来,我们需要切换到一个现实照片的大模子。首先,我们要输入的是照片质量的关键词,然后输入照片的主题,比如,一个客厅。
最后一步,点击生成。

生成的照片既保存了原有房屋的基本结构,又展示了新的室内装修风格!通过这样的方式,我们可以轻松预览和调解我们的室内计划方案,纵然是室内计划的新手,也可以轻松掌握。

四、Stable Diffusion知识详解
12. VAE:可变主动编码器
主要作用:为照片添加滤镜和微调
作为新手,我们不必深究VAE的工作原理,只需知道它的作用是为照片添加滤镜和微调。
下图展示了添加和未添加VAE效果的区别。未添加VAE的照片看起来有些模糊。


但在一样平常情况下,如果我们对照片的色彩没有特别要求的时间,只选定一个VAE来使用就可以。
下面这个就是我比力常用的VAE
通常情况下,如果对照片的色彩没有特别要求,只需选择一个VAE模子即可。下面是我常常使用的VAE模子。


13. STEPS:迭代步数
简单来说,我们可以将SD生成图片的过程视为绘画。每增长一步迭代,都会给AI更多的机会去比对提示和当前效果,并举行调解。更高的迭代步数需要更多的计算时间。但高步数并不肯定意味着更好的效果。当然,如果迭代步数太少,会降低生成图像的质量。
一样平常而言,将参数设置在20到30之间较为符合。
20步以下的图像质量较低。
但并不是迭代步数越多越好,凌驾30步后,部分电脑可能无法处理,无法生成照片。
因此,设置较低的电脑发起将步数设置在20到25之间。
设置较好的电脑可以将步数设置在25到30之间。
14. Sample:采样方法
不同的采样方法相当于我们绘画的方式不同。
选择哪种采样方法呢?首先,我们可以参考他人使用的悦目照片中所用的采样方法。如果不确定该选择哪种,我颠末测试,下面圈出来的几种采样方法生成的照片质量较高且速度较快。


15. 面部修复+高分辨率修复
这两个功能没有太多讲解,直接使用即可。
留意点如下:

16. 图片分辨率(图片大小)

这里的宽度和高度用于调解照片的大小。
一样平常情况下:

17. 生成多图
通过调解下面这两个参数,可以让我们一次生成多个图


假如我们把两个参数都设置成2
总批次数的意思就是生成两批
单批数目的意思就是一批生成两张照片
以是一共就会生成4张照片

在我们一样平常使用需要生成多张照片的
我们只调解“生成次数”就可以啦,这意味着我们照片是一张一张生成的
留意:单批数目就意味着同时生成多张照片,这对我们的显卡是有肯定要求的,以是这个不要用!!
18. 用脚本举行照片对比
当我们生成照片时,输入了许多关键词。那么我们如何才能比力不同关键词输入所生成的照片有什么区别?或者比力加入某个关键词和不加的区别呢?
这时我们可以使用脚本中的"提示词矩阵",只需点击即可。

接着来到关键词的文本框
我们前面不停说在写关键词之前,先写照片的质量词
那我们就以这张照片为例子,
看看加上最高质量(the best quality)和不加有什么区别
书写格式:将需要对比的关键词放在最后,用"|"将关键词和前面的关键词分隔开,即:关键词|需要对比的关键词。
如下面截图所示:


点击生成,就会生成两张照片并拼在一起。我们可以看到加上"最高质量(the best quality)"的照片更清晰。




如果现在想要比力不同采样方法下,不同迭代步数所生成的照片有何区别,该怎么操作呢?
这时就需要使用脚本中的"X/Y/Z图表"功能。


在X轴类型中选择"迭代步数",然后在右侧的X轴值中输入要比力的步数。
在Y轴类型中选择"采样器",然后点击右侧的条记本图标。这样所有采样器的名称都会显示在框内,可以自行选择删除。



点击"生成",就会生成一张大图。我们可以看到在不同采样方法下,迭代步数为25时生成的照片都差不多。通过此对比,我们可以选择自己更喜欢的采样方法和迭代步数。


19. ControlNet的作用
1.黑白线稿上色
2.控制人物姿势
3.规复画质
4.动漫变真人
五、大神的模子从哪来
1.模子在哪下载
除了链接里面给各人分享的模子,各人肯定还想去找更多更悦目的模子
而大多数的模子都是在Civitai(C站)这个网站里面https://civitai.com/
自己整理的常用的模子网盘下载链接:https://pan.quark.cn/s/2750beda9269

C站的使用方法:
1.邪术上网:这个没法教,只能自己想办法。

2.点击右上角的筛选按钮,在框框里面找到自己需要的模子类型
Checkpoint=大模子
LoRA=Lora
常用的就是这两个



3.看照片,看到感兴趣的就点进去
点击右边的“Download”,也就是下载,保存到电脑本地,


文件保存到哪里在这一节的第2部分

另外,我们还可以点击左上角的“Images”


这里就是看别人已经做好的图片,找到喜欢的点进去
点进去之后的页面我们就可以看到这张图的全部信息


直接点击Lora和大模子,可以直接跳转到下载页面
下面的就是照片关键词和其他信息
点击最下面的“Copy...Data”就可以复制图片的所有信息

回到SD,粘贴到关键词的文本框,点击右边的按钮
这些信息就会主动分配


要留意的就是,大模子是需要我们手动去换的!
这样我们就可以生成出跟大神几乎一样的照片了!(电脑网络设置的不同,出来的照片有细微差异)

2.模子下载到哪里
下面截图演示下电脑存放的位置。
1.大模子存放目次novelai-webui-aki-v3\models\Stable-diffusion
这里的SD根目次:novelai-webui-aki-v3  就是各人在下载时,存放SD的那个文件夹


2.Lora存放目次novelai-webui-aki-v3\models\Lora


3.VAE存放目次:novelai-webui-aki-v3\models\VAE


3.如何分辨模子
如果我们下载了一个模子,但不知道它是哪个类型的,不知道要放到哪个文件夹
我们就可以用到这个秋叶的模子解析工具   Stable Diffusion 法术解析


把模子拖动到空白处


接着就会主动弹出模子的信息
在模子种类里面就可以看到是什么模子啦!

​更多AI绘画知识

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4