AIGC现如今可谓是如日中天,[AI绘画]算是其中最火的其中之一了。现在的AI画图工具也是百家争鸣,不管是网页端,APP端,还是小程序端,都能看到各种各样的AI画图工具,他们多是需要你发送关键词或画图命令到他们的服务器,然后由服务器渲染完成之后返图给你,所以一定会占用他们的服务器资源
那么,显而易见,他们无一例外都有一个致命的缺点:要钱!
不可否认的是,这些工具简直大概调教的更容易上手使用,但是在这个开源的时代,当然是要自己部署一个AI画图工具了!
本日,我就手把手带你免费部署本地[AI画图]工具——Stable diffusion(想要Stable diffusion安装包的小伙伴可以在文末扫码,我给各人免费安排!)
什么是Stable Diffusion
stable diffusion是一种基于扩散过程的图像天生模型,可以天生高质量、高分辨率的图像。它通过模仿扩散过程,将噪声图像逐渐转化为目标图像。这种模型具有较强的稳固性和可控性,可以天生多样化效果和良好视觉效果的图像。
说人话,就是它能根据你的需求稳固天生可控图像
这份完备版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【包管100%免费】
Stable Diffusion能干什么
stable diffusion能天生图像这一大功能,又能主要细分以下小功能
- • 文生图:通过正向提示词,负向提示词,以及模型选择,宽高,迭代步数,随机种子,等各种参数调节,天生你想要的特定图像
- • 图生图:通过正向提示词,负向提示词,以及模型选择,宽高,迭代步数,随机种子,重绘幅度,参考图片,天生你想要的特定图像
- • 后期处理:宽高调整,缩放,放大算法等
- • 练习自定义模型:可以根据自己的喜欢,练习出更有针对性,实用于自己的模型。
- • 扩展:有丰富的扩展库,丰富画图工具库,实现更多AI画图功能。(如果你愿意折腾,你会发现更多的新大陆)
怎么安装部署
从github下载源码
可千万别从百度去搜索下载,百度搜出来的都是各种各样的广告,末了下载的一定是他们要你付费的版本。
准确的做法是打开github,进入stable
diffusion的官方版本:https://github.com/AUTOMATIC1111/stable-diffusion-
webui(或评论区置顶获取)
程序员同学,我就不赘述怎样从github克隆代码下来了,非程序员同学也别畏惧,它也可以像下其他软件一样直接下载,点击Code,然后点击Download
ZIP即可下载,下好解压到你电脑的任意目录(发起SSD的目录下)
github下载方式
安装python情况
由于stable diffusion需要python运行情况,因此我们还需要安装python情况。
进入python官网下载(或评论区置顶获取):https://www.python.org/downloads/
安装python
安装完成后,测试python情况是否安装好,使用win+r打开命令终端
测试python情况
输入python --version,只要看到" ython 版本号",即安装乐成
测试python情况
启动stable diffusion
运行解压出来的stable diffusion源码的位置的根目录下的webui.bat或webui-
user.bat(其实也是调用webui.bat脚本),这时候会弹出来命令行终端,并开始革新日志,当你看到以下日志则代表启动乐成:
Running on local URL: http://127.0.0.1:7860
日志
日志同时也输出了应用的地址,在浏览器打开即可
汉化界面
这时候你看到的界面应该还是全英文,为了方便使用,我们的第一件事就是先做汉化、选择最上面的标签中的Extensions
URL一栏填汉化插件地址:https://github.com/VinsonLaro/stable-diffusion-webui-chinese.git
点击Install安装,完成后重启即可
汉化
于是,我们就进入了stable diffusion的主界面
主界面
至此,我们的stable diffusion就安装部署好了!
怎样使用
要明白怎样使用,起首我们需要了解stable diffusion的界面的各个参数都代表什么,怎样调整
提示词
提示词
提示词又分为正面提示词和负面提示词,正面提示词就是你希望stable diffusion画图的目标方向,而负面提示词则是你希望stable
diffusion克制的方向
例如我们填以下正面提示词
(masterpiece), (best quality), (super delicate), (illustration), (extremely
delicate and beautiful), (dynamic angle), white and black highlights,
(legendary Dragon Queen:1.3)(1 girl), Hanfu, (complex details) (beautiful and
delicate eyes), golden eyes, green pupils, delicate face, upper body, messy
floating hair, messy hair, focus, perfect hands, (fantasy wind)
lora:FilmVelvia2:1 lora:koreaface15:1
填以下负面提示词
nsfw,logo,text,badhandv4,EasyNegative,ng_deepnegative_v1_75t,rev2-badprompt,verybadimagenegative_v1.3,negative_hand-
neg,mutated hands and fingers,poorly drawn face,extra limb,missing
limb,disconnected limbs,malformed hands,ugly,poorly drawn
face,mutated,lowres,nsfw,logo,text,mutated hands and fingers,ugly,deformed
提示词
我们会得到以下的一个美丽的小姐姐
AI小姐姐
可以看到,已经十分靠近真人照片了,但其实还有一些细节是可以再优化的,可以通过提示词或重绘等功能继续优化
采样方法
采样方法
采样方法是不同的采样算法进行画图,不同的采样方法,最终得出的效果也是不尽相同,以下是主要几个采样方法所适合的模型
- • Euler a :适合插画,二次元,漫画风,tag利用率仅次于DPM2和DPM2 a,情况光效不行,构图偶尔很奇葩
- • Euler:柔和,也适合插画,情况细节与渲染好,背景模糊较深。
- • Heun:单次出图平均质量比Euler和Euler a高,但速度最慢,高step表现好。
- • DDIM:适合宽画,速度偏低,高step表现好,负面tag不够时发挥随意,情况光线与水汽效果好,写实不佳。
- • DPM2:该采样方法对tag的利用率最高,险些占80%+
- • DPM2 a:险些与DPM2相同,对人物大概会有特写
- • PLMS:单次出图质量仅次于Heun。
- • LMS:质感OA,饱和度与对比度偏低,更倾向于动画的风格
- • LMS Karras:会大改成油画的风格,写实不佳。
不同的采样方法对应不同的迭代步数,不同的模型,都有不同的效果,希望你能多试试其中的不同
以上采样方法对比来自:http://www.codeforest.cn/article/3578
也可以参考大佬的采样器教学:【stablediffusion采样方法完备教程】
https://www.bilibili.com/video/BV1iW4y1D7RW/?share_source=copy_web&vd_source=b8d0b2c4c1a84965a2546f0efe2f5759
模型
模型
模型分为几种类型
模型存放路径形貌Checkpointstable diffusion安装目录\models\Stable-diffusion也叫Ckpt模型或大模型,是画图的底子主模型,不同的大模型有不同的画图风格VAEstable diffusion安装目录\models\VAE搭配主模型使用,起调色和微调作用Embeddingstable diffusion安装目录\models\embeddings提词打包模型,可以天生指定角色的特征、风格或画风Hypernetworkstable diffusion安装目录\models\hypernetworks类似Embedding模型的效果,常用语画风、效果的转换LoRAstable diffusion安装目录\models\Lora搭配主模型使用,用于样式修改 使用不同的模型,可以得到不同画图效果
推荐模型下载:https://civitai.com/models
模型路径剖析:https://spell.novelai.dev
其他参数
- • 宽度:调整照片宽度
- • 高度:调整照片高度
- • 面部修复:用于修复面部的怪异,天生人物勾选
- • 高分辨率修复:通过算法放大图片的分辨率
- • 提示词引导次数:用来控制提示词与出图相关性的一个数值。一般来说,CFG设置为5-15之间是最通例以及最保险的数值。过低的CFG会让出图饱和度偏低,过高的CFG则会出现粗犷的线条或太过锐化的图像,甚至于画面出现严重的崩坏。
- • 迭代步数:希望AI的画图次数(配合不同的采样器,需要使用不同迭代步数,一般在20-30即可,并不是越高越好)
- • 随机种子:若天生的图像比力满意,可以保存随机种子,用当前随机种子重新天生图片,产生的变化较小
- • 总批次数/单批数量:天生图片数量
插件推荐
stable
diffusion除了满足基本的画图需求,以及各种第三方模型的导入以外,它的强大之处还在于有丰富的第三方插件,即我们在安装部署之后安装汉化插件的界面
插件
插件安装方式可以是“可下载->加载扩展列表”,然后从列表选择或搜索插件下载,或直接选择“从网站安装”,填写插件的git仓库地址。一般我们从扩展列表搜索即可
提示词插件
插件名字:sd-webui-prompt-all-in-one
插件仓库地址:https://github.com/Physton/sd-webui-prompt-all-in-one
是不是还在苦恼要怎么去形貌想要天生的图片?最原始的方法,就是先形貌出你想绘制的图像,再根据自己的英文词汇量,大概翻译软件,得到提示词,再填入stable
diffusion,这个插件直接提供了常见的形貌词的选择,只需要选择点击即可(刚才那个小姐姐就是用这个天生的)
提示词插件
多重宇宙视频插件
插件名字:deforum-for-automatic1111-webui
插件仓库地址:https://github.com/deforum-art/deforum-for-automatic1111-webui.git
是不是常常在短视频软件看见那种炫酷的多重宇宙的视频,再配上宏大的音乐,让自己感觉像梦里的场景变换一样,苦于这样的视频制作需要付费,所以不停没有尝试?其实stable
diffusion有插件就能实现!
多重宇宙插件
使用方式和正常的文生图差不多,就不多赘述了
以下是我天生的钢铁侠、漫威、蜘蛛侠为关键字的多重宇宙视频
多重宇宙
更多插件,就等着你来探索了!
结尾
至此,stable diffusion的大致部署和使用就介绍完了,但这其实还只是冰山一角,文生图,图生图,甚至是Deforum插件,使用方式都大差不差。stable diffusion有很大的应用远景,比如各种插图、插画、甚至各种美术资源。经过一定使用的练习,它一定能进步你的工作效率!
其实很多收费AI画图工具,都只是人家在服务器部署了stable diffusion,然后让你付费使用他的服务器资源而已。学会这篇stable
diffusion的本地部署,告别收费AI画图!
这份完备版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【包管100%免费】
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |