一、当地摆设 Stable Diffusion (全套教程文末领取哈)
前言
现在市面上比力权威,并能用于工作中的AI绘画软件着实就两款。一个叫Midjourney(简称MJ),另一个叫Stable-Diffusion(简称SD)。MJ必要付费使用,而SD开源免费,但是上手难度和学习本钱略大,并且非常吃电脑设置(显卡、内存)。
E和Midjourney相比,Stable Diffusion 最大的上风是开源,这意味着Stable Diffusion的潜力巨大、发展飞快。由于开源免费属性,SD 已经劳绩了大量活跃用户,开发者社群已经为此提供了大量免费高质量的外接预练习模子(fine-tune)和插件,并且在一连维护更新。在第三方插件和模子的加持下,SD拥有比Midjourney更加丰富的个性化功能,在颠末使用者调教后可以生成更贴近需求的图片,甚至在 AI 视频殊效、AI音乐生成等范畴,Stable Diffusion 也占据了一席之地。
Stable Diffusion是一种潜在扩散模子(Latent Diffusion Model),能够从文本形貌中生成具体的图像。它还可以用于图像修复、图像绘制、文本到图像和图像到图像等任务。简朴地说,我们只要给出想要的图片的文字形貌在提Stable Diffusion就能生成符合你要求的传神的图像!
电脑设置
电脑设置最焦点的关键点:看显卡、看内存、看硬盘、看CPU。此中最重要的是看显卡。N卡(英伟达Nvida独立显卡)首选,服从远超集显/AMD/Intel显卡和CPU渲染,最低10系起步,体验感佳用40系,显存最低4G,6G及格,上不封顶;内存最低8G,16G及格,上不封顶;硬盘可用空间最好有个500G朝上,固态最佳。
系统要求:支持 Win10/Win11/macOS(仅限Apple Silicon,Intel 版本的 Mac 无法调用 Radeon 显卡)和 Linux 系统,苹果版 SD 兼容的插件数目较少,功能性不及 Windows 与 Linux 电脑。
假如身边没有合适的电脑可以考虑购买云主机,比如腾讯GPU云服务器。若无法使用独立显卡和云服务,亦可修改启动设置,使用CPU渲染(兼容性强,出图速度慢,必要16G以上内存)(云主机不推荐长期购买~)。
从图中可看出,与AMD或英特尔的任何产物相比,Nvidia的GPU提供了杰出的性能–偶然是以巨大的上风。随着DLL修复到位,RTX 4090的性能比带有xformers的RTX 3090 Ti高出50%,而没有xformers的性能则高出43%。生成每张图片只必要三秒多。
安装方法
SD开源地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki
现在大家普遍采用的Stable Diffusion Web UI是发布于开源程序分享网站 Github 的 Python 项目,和平常软件安装方法有所差别,不是下载安装即可用的软件,必要预备执行环境、编译源码,针对差别操纵系统(操纵系统依靠)、差别电脑(硬件依靠)尚有做些手工调整,这必要使用者拥有肯定的程序开发履历(可以现学),已经有很多大佬们写了具体的安装教程。
一键启动包只是封装了可视化的一键界面,不影响出图效果,只是低落了当地摆设的门槛。
Nvidia 显卡用户须知:在使用SD前,请登录 Nvidia 官网https://www.nvidia.cn/geforce/drivers/下载安装对应显卡最新版驱动程序,与显卡支持的最新版 CUDA 驱动。
启动SD
进入SD安装文件夹,双击 webui-user.bat,待其加载完成方可使用欣赏器(Chrome/Edge)登录默认的加载IP
界面汉化
假如必要中文语言包,可以下载如下中文语言包扩展,下载界面网址为:[https://github.com/VinsonLaro/stable-diffusion-webui-chinese
方法1:通过WebUI拓展进行安装
1.打开stable diffusion webui,进入"Extensions"选项卡
2.点击"Install from URL",注意"URL for extension’s git repository"下方的输入框
3.粘贴或输入本Git仓库地址[https://github.com/VinsonLaro/stable-diffusion-webui-chinese
4.点击下方的黄色按钮"Install"即可完成安装,然后重启WebUI(点击"Install from URL"左方的"Installed",然后点击黄色按钮"Apply and restart UI"网页下方的"Reload UI"完成重启)
5.点击"Settings",左侧点击"User interface"界面,在界面里最下方的"Localization (requires restart)“,选择"Chinese-All"或者"Chinese-English”
6.点击界面最上方的黄色按钮"Apply settings",再点击右侧的"Reload UI"即可完成汉化
二、界面基础
了解界面
接下来是具体的使用方法简介。现在SD并不存在通行可靠的使用规范,每个人的电脑设置、需求都不尽雷同,cpkd/Safetensors大模子、VAE、embeding、lora等AI模子、各类插件、提示词、输出参数的组合牵一发则动全身,必要大家有足够的耐心查阅插件开发者的说明文档和来自[https://civitai.com/ 中分享网站的使专心得,大家可以先到civitai上搜索中意的图例,复用原作者的出图提示词、参数和模子,再以此修改,这样学习的效果最为直观。
文生图:根据文本提示生成图像
图生图:根据提供的图像作为范本、联合文本提示生成图像
更多:优化(清晰、扩展)图像
图片信息:显示图像根本信息,包含提示词和模子信息(除非信息被隐藏)
模子归并:把已有的模子按差别比例进行归并生成新模子
练习:根据提供的图片练习具有某种图像风格的模子
形貌语分为正向/负向形貌,它们也叫tag(标签)或prompt(提示词)
正面提示词:相比Midjourney必要写得更精准和细致,形貌少就给AI更多自由发挥空间。
负面提示词:不想让SD生成的内容。
正向:masterpiece, best quality, 更多画质词,画面形貌
反向:nsfw, lowres, bad anatomy, bad hands, text, error, missing fingers,extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,根据画面产出加不想出现的画面。
生成下面的5个小图标(从左到右依次分别是)
- 复原上次生成图片的提示词(自动记录)
- 清空当前所有提示词
- 打开模子选择界面
- 应用选择的风格模板到当前的提示词
- 存档当前的正反向提示词
采样方法
1.建议根据本身使用的checkpoint使用脚本跑网格图(用本身关心的参数)然后选择本身想要的结果。
2.懒得对比:请使用DPM++ 2M或DPM++ 2M Karras(二次元图)或UniPC,想要点惊喜和变革,Euler a、DPM++ SDE、DPM++ SDE Karras(写实图)、DPM2 a Karras(注意调整对应eta值)
3.eta和sigma都是多样性相关的,但是它们的多样性来自步数的变革,追求更大多样性的话应该关注seed的变革,这两项参数应该是在图片框架被选定后,再在此基础上做微调时使用的参数。
采样步数
稳固扩散通过从布满噪音的画布开始创建图像,并逐渐去噪以到达最终输出。此参数控制这些去噪步调的数目。通常越高越好,但在肯定程度上,我们使用的默认值是25个步调。以下是差别情况下使用哪个步调编号的一样平常指南:
- 假如您正在测试新的提示,并希望得到快速结果来调整您的输入,请使用10-15个步调
- 当您找到您喜好的提示时,请将步调增加到25
- 假如是有毛皮的动物或有纹理的主题,生成的图像缺少一些细节,尝试将其提高到40
面部修复:修复人物的面部,但黑白写实风格的人物开启面部修复大概导致面部崩坏。
平铺:生成一张可以平铺的图像
高分辨率重绘:使用两个步调的过程进行生成,以较小的分辨率创建图像,然后在不改变构图的情况下改进此中的细节,选中该选项会有一系列新的参数,
此中重要的是:
放大算法:Latent 在许多情况下效果不错,但重绘幅度小于 0.5 后就不甚抱负。ESRGAN_4x、SwinR 4x 对 0.5 以下的重绘幅度有较好支持。
放大倍数: 通常2倍即可
重绘幅度:决定算法对图像内容的保留程度。该值越高,放大后图像就比放大前图像差别越大。低 denoising 意味着修正原图,高 denoising 就和原图就没有大的相关性了。一样平常来讲阈值是 0.7 左右,凌驾 0.7 和原图根本上无关,0.3 以下就是稍微改一些,0什么都不会改变,1会得到一个完全差别的图像。具体的执行步调为 重绘强度 * 重绘步数。
长宽尺寸(分辨率)
长宽尺寸并非数值越大越好,最佳的范围应在512至768像素之间,比如正方形图多是512*512和768*768,人像肖像 512x768,风景画 768×512,可按比例加大或减小,这个值必须是 8 的倍数。假如不希望主题对象出现重复,应在此范围内选择适当的尺寸。假如必要更高分辨率的图片,建议先使用SD模子生成图片,然后再使用合适的模子进行upscale。
生成批次:每次生成图像的组数。一次运行生成图像的数目为生成批次 * 每批数目。
每批数目:同时生成多少个图像。增加这个值可以提高性能,但你也必要更多的 VRAM。图像总数是这个值乘以批次数。除 4090 等高级显卡以外通常保持为 1。
提示词相关性CFG:较高的数值将提高生成结果与提示的匹配度。
OpenArt上使用的默认CFG是7,这在创造力和生成你想要的东西之间提供了最佳平衡。通常不建议低于5。
CFG量表可以分为差别的范围,每个范围都适合差别的提示类型和目的
CFG 2 – 6:有创意,但大概太扭曲,没有遵照提示。对于简短的提示来说,可以很有趣和有效
CFG 710:推荐用于大多数提示。创造力和引导一代之间的精良平衡
CFG 10-15:当您确定您的提示是具体且非常清晰的,您希望图像是什么样子时
CFG 16-20:除非提示非常具体,否则通常不推荐。大概影响同等性和质量
CFG >20:几乎无法使用
随机种子(Seed):生成每张图片时的随机种子,这个种子是用来作为确定扩散初始状态的基础。不懂的话,用随机的即可。
提示词生成
开始不知道怎么写提示词,可以先参考优秀的风格模板作为起手式,还可以借助形貌语工具和网站,多出图多研究,把握了出图规律,逐步就可以本身写提示词啦,写提示词要尽大概写的具体。跑AI的过程就像抽卡,抽出一堆卡,选出你审美范畴里觉得好看的。
找tag关键词网站:
可参考Civitai | Stable Diffusion models, embeddings, hypernetworks and more中优秀作品的提示词作为模板。
其他网站尚有:
ChatGPT:[https://chat.openai.com/
AI Creator:[https://ai-creator.net/arts
NovelAI:[https://spell.novelai.dev
魔咒百科辞书:[https://aitag.top
AI咒术生成器:[https://tag.redsex.cc/
AI词汇加速器 AcceleratorI Prompt:
词图 PromptTool:[https://www.prompttool.com/NovelAI
鳖哲法典:[http://tomxlysplay.com.cn/#/
Prompt格式优化
第一段:画质tag,画风tag
第二段:画面主体,主体夸大,主体细节概括(主体可以是人、事、物、景)画面焦点内容
第三段:画面场景细节,或人物细节,embedding tag。画面细节内容
第二段一样平常提供人数,人物主要特征,主要动作(一样平常置于人物之前),物体主要特征,主景或景色框架等
举个例子
(具体场景照旧要机动应用,多尝试,找到合适本身的节奏和风格)
第一段:masterpiece, best quality, 4k, ( Pixar - style :1.4)
第二段:1boy,(Cute,handsome,wearing outdoor sportswear :0.7), 3D,(Face close-up :1.2), (at night, surrounded by glowing plants, flowers, flying fireflies, bonfires), (Ultra detailed, aesthetic, beautiful composition, rich bright colors, volumetric soft light).
第三段:Inspired by Alice in Wonderland, magic, fairy tales. unreal Engine, octane render, cuteness render, awe inspiring, beautiful, lora:blindbox\_V1Mix:1
Prompt规则细节
1. 越靠前的Tag权重越大。
2. 生成图片的巨细会影响Prompt的效果,图片越大必要的Prompt越多,否则Prompt会相互污染。
3.Stable-diffusion中,可以使用括号人工修改提示词的权重,方法如下:
(word) - 将权重提高 1.1 倍
((word)) - 将权重提高 1.21 倍(= 1.1 * 1.1)
[word] - 将权重低落至原先的 90.91%
(word:1.5) - 将权重提高 1.5 倍
(word:0.25) - 将权重淘汰为原先的 25%
请注意,权重值最好不要凌驾 1.5
4. Prompt支持使用emoji,可通过添加emoji到达体现效果。如 形容表情, 可修手。
5.“+” , “ AND” , “|” 用法:“+”和“ AND ”都是用于连接短Tag,但AND两端要加空格。"+“约便是” and ";“|” 为循环绘制符号(融合符号)(Prompt A: w1)|(Prompt B: w2)
以上表达适用于WebUI,w1、w2为权重。AI会对A、 B两Prompt进行循环绘制。可今后无限加入Prompt。
6.tag不愿定是多么布满细节,只要模子稳固。小图+高分辨率重绘。800*400的图酿成1600*800,初识小图淘汰崩坏概率。
7.关键词最好具有特异性,譬如 Anime(动漫)一词就相对泛化,而Jojo一词就能清晰地指向 Jojo动漫的画风。说话越不抽象越好,尽大概避免留下解释空间的说话。
三、了解模子
下载模子
主流模子下载网站:
Hugging face是一个专注于构建、练习和摆设先辈开源呆板学习模子的网站:[https://huggingface.co/
Civitai是一个专为Stable Diffusion AI艺术模子设计的网站,黑白常好的AI模子库:[https://civitai.com/
主流模子被删除可以去备用模子站下载:[https://www.4b3.com
模子选择
如何选择合适模子是最重要的。
从你想画的风格(写实、二次元、卡通盲盒等)来选择大模子,再搭共同适的Lora。
1.Checkpoint
体积较大,也被称为大模子,差别的大模子使用差别的图片练习而成,对应差别的风格,相称于最底层的引擎。偶然候必要大模子+VAE+emb+Lora团结搭配使用以到达必要的效果。
下载的大模子可放置于SD文件夹/models/Stable-diffusion内。
2.Lora
Lora是特征模子,体积较小,是基于某个确定的角色、确定的风格或者固定的动作练习而成的模子,可使用权重控制,确定性要远强于embedding。embedding和Lora有功能交集的部分,也有互相不可取代的地方。
在ckpt大模子上附加使用,对人物、姿势、物体体现较好。在webui界面的Additional Networks下勾线Enable启用,然后在Model下选择模子,并可用Weight调整权重。权重越大,该 Lora 的影响也越大。不建议权重过大(凌驾1.2),否则很容易出现扭曲的结果。
多个Lora模子混合使用可以起到叠加效果,譬如一个控制面部的Lora 共同一个控制画风的 Lora就可以生成具有特定画风的特定人物。因此可以使用多个专注于差别方面优化的Lora,分别调整权重,联合出本身想要实现的效果。
LoHA 模子是一种 LORA 模子的改进。
LoCon 模子也一种 LORA 模子的改进,泛化本领更强。
下载的Lora可放置于SD文件夹/models/Lora内。
3.VAE
VAE模子类似滤镜,对画面进行调色与微调,一样平常必要搭配相应的模子一起使用。(假如图片比力灰,颜色不太靓丽,就大概是没加载vae)
下载的VAE可放置于SD文件夹/models/VAE内。
4.Textual inversion(embedding)
关键词预设模子,即关键词打包,即便是预设好一篮子关键词a,b,c打包,进而来指代特定的对象/风格。也可以通过下载Textual inversion进使用用。
下载的embedding可放置于SD文件夹/embeddings内。
四、ControlNet
ControlNet使得SD从玩具酿成做商业项目的神器,接下来会重中之重来具体解说一下。
ControlNet是斯坦福大学研究人员开发的Stable Diffusion的扩展,使创作者能够轻松地控制AI图像和视频中的对象。它将根据边缘检测、草图处置惩罚或人体姿势等各种条件来控制图像生成。ControlNet可以概括为一种简朴的稳固扩散微调方法。ControlNet的工作原理是将可练习的网络模块附加到稳固扩散模子的U-Net (噪声预测器)的各个部分。Stable Diffusion 模子的权重是锁定的,在练习过程中它们是不变的。在练习期间仅修改附加模块。
安装
从github上找到并把网址填到扩展里安装,安装完后记得点击 Apply and restart UI([https://github.com/Mikubill/sd-webui-controlnet )
1.将ControlNet模子(.pt、.pth、.ckpt或.safetensors)放入models/ControlNet文件夹。
2.打开“txt2img”或“img2img”选项卡,写下您的提示。
3.按“革新模子”,选择要使用的模子。(若没有出现,请尝试重新加载/重新启动webui)
4.上传您的图像并选择预处置惩罚器,完成。
现在,它支持完整型号和修剪型号。使用extract_controlnet.py从原始.pth文件中提取controlnet。
预练习模子:[https://huggingface.co/lllyasviel/ControlNet/tree/main/models
界面介绍
开启 :选中此框以启用ControlNet。
颜色反转:交换黑色和白色。比方,它可以在您上传涂鸦时使用。ControlNet 必要黑色背景和白色涂鸦。假如您使用白色背景的外部软件创建涂鸦,则必须使用此选项。假如您使用 ControlNet 的界面创建涂鸦,则不必要使用此选项。
RGB转为BGR :用于检测用户导入图像中的颜色信息。偶然图像中的颜色信息大概与扩展所期望的差别。假如您上传图像并使用预处置惩罚,则无需选中此框。
低显存:这将减缓ETA进程,但有助于使用更少的盘算空间(显存小于8 GB VRAM建议使用),检查您是否用完了 GPU 内存,或者想要增加处置惩罚的图像数目。
推测模式:ControlNet自动识别图像(不必要提示和负面提示)与选定的预处置惩罚器。它强制 ControlNet 编码器遵照输入控制图(如深度、边缘等),纵然没有提示也是如此。使用此模式时使用更高的步进,比方50,但是这个效果不愿定好。
权重(Weight):代表使用 ControlNet 生成图片时被应用的权重占比。
引导参与时机(Guidance Start):在理解此功能之前,我们应该先知道生成图片的 Sampling steps 采样步数功能,步数代表生成一张图片要革新盘算多少次,Guidance Start(T) 设置为 0 即代表开始时就参与,默以为 0,设置为 0.5 时即代表 ControlNet 从 50% 步数时开始参与盘算。
引导退出时机(Guidance End):和引导参与时机相对应,如设置为1,则体现在100%盘算完时才会退出参与也就是不退出,默以为 1,可调节范围 0-1,如设置为 0.8 时即代表从80% 步数时退出参与。
调整巨细模式提供了调整ControlNet巨细和上传图像的纵横比。
Just Resize:不保留纵横比的情况下,改变ControlNet图像的巨细以匹配Txt2Img设置的宽度和高度。这包括拉伸或压缩图像以适应指定的尺寸。
Scale to Fit (Inner Fit):调整ControlNet图像的巨细以适应Txt2Image的尺寸。它将调整图像的巨细,直到它能够适应Txt2Image设置的宽度和高度。
Envelope (Outer Fit):调整Txt2Image的巨细以适应ControlNet图像的尺寸。它将调整图像的巨细,直到Txt2Image设置可以适合ControlNet图像。
画布宽度 和 画布高度 提供手动创建绘图或草图以,不上传任何图像(最好使用 Scribble 预处置惩罚器以得到精良的输出)。它会调整空缺画布的巨细来进行绘制,不会影响上传的原始图像。
预览图片处置惩罚结果:能够快速查看选择的预处置惩罚器是如何将上传的图像或绘图转换为 ControlNet的检测图。对在渲染输出图像之前尝试各种预处置惩罚器有效,可节省我们的时间。
隐藏处置惩罚结果:删除预览图像。
预处置惩罚器和模子是ControlNet的主要选项。
预处置惩罚器:用于对输入图像进行预处置惩罚,比方检测边缘、深度和法线贴图。None使用输入图像作为控制图。 根据所需的输出,用户可以选择相应的控制方法。
模子:假如您选择了预处置惩罚器,您通常会选择相应的模子。但是它并不限定你混合和匹配所有的预处置惩罚器和模子,但是混合多了就会产生负面效果,以是最好使用更加匹配的模子并且越少越好。ControlNet模子与在AUTOMATIC1111 GUI顶部选择的稳固扩散模子一起使用。
预处置惩罚器
下面我们介绍几个常用的 ControlNet,并在下面举例说明如何使用它。
1、Canny边缘检测
Canny通过使用边缘检测器创建高对比度区域的轮廓来检测输入图像。线条可以捕捉到非常具体的信息,但假如你的图像背景中有一些物体,它很大概会检测到不必要的物体。以是背景中物体越少效果越好。用于此预处置惩罚器的最佳模子是control_sd15_canny。
2、Depth & Depth Leres
这个预处置惩罚器有助于生成输入图像的深度估计。深度通常用于控制图像内物体的空间定位。浅色区域意味着它离用户更近,而深色区域则离用户更远。
在大图像时它大概会丢失图像内部的细节(面部表情等)。一样平常会与control_sd15_depth模子组合使用。Midas Resolution函数用于增加或淘汰detectmap中的巨细和细节级别。它的级别越高,将使用更多的VRAM,但可以生成更高质量的图像,反之亦然。
Depth Leres有与Depth 雷同的根本概念,但在舆图中包含更广泛的范围。但偶然它会从图片中捕获了太多信息,大概会生成与原始图像略有差别的图像。以是最好先试用两种预处置惩罚器,然后决定哪一种。
3、HED (Holistically-Nested Edge Detection)
Hed可以在物体周围创建清晰和精细的边界,输出类似于Canny,但淘汰了噪声和更柔软的边缘。它的有效性在于能够捕捉复杂的细节和轮廓,同时保留细节特征(面部表情、头发、手指等)。Hed预处置惩罚器可用于修改图像的风格和颜色。用于此预处置惩罚器的最佳模子是control_sd15_hed。
4、MLSD ( Mobile Line Segment Detection)
MLSD Preprocessor 最适合生成强有力的线条,这些线条能够检测出必要独特和刚性轮廓的建筑和其他人造作品。但是它不适用于处置惩罚非刚性或弯曲的物体。MLSD适用于生成室内布局或建筑布局,由于它可以突出直线和边缘。用于此预处置惩罚器的最佳模子是control_sd15_mlsd。
5、Normal map
法线图使用了三种主要颜色(红、绿、蓝),通过差别的角度来精确定位物体的粗糙度和光滑程度。它生成法线图的根本估计,可以保留相称多的细节,但大概会产生意想不到的结果,由于法线图完全来自图像,而不是在3D建模软件中构建的。
法线图有利于突出复杂的细节和轮廓,并且在定位对象方面也很有效,特殊是在靠近度和间隔方面。“Normal Background Threshold”用于调整背景成分。设置一个更高的阈值可以移除背景的远处部分(将其混合成紫色)。低落阈值将下令AI保留甚至显示额外的背景元素。用于此预处置惩罚器的最佳模子是control_sd15_normal。
6、OpenPose
这个预处置惩罚器生成了一个根本的骨骼火柴人形象。这种技术被广泛采用,由于多个 OpenPose骨架可以组合成一个图像,这有助于引导稳固扩散生成多个同等的主题。骨架图有很多关节点,每个点代表如下图所示。
7、Scribble
涂鸦的目的是从简朴的黑白线条画和草图生成图像。用户也可以使用“Canvas”选项创建特定巨细的空缺画布,用于手动素描(也可以直接上传图像)。假如草图和绘图由白色背景上的黑线构成,则必要选中“Invert Input Color”复选框。用于这个预处置惩罚器的最佳模子是control_sd15_openpose。
8、Segmentation
分割预处置惩罚器检测并将上传的图像分割为同一图像内的段或区域。该模子在生成一组新的图像时,将detectmap图像应用于文本提示。用于此预处置惩罚器的最佳模子是control_sd15_seg。
附录:预处置惩罚器与对应模子清单
总结
使用AI绘图工具Stable Diffusion确实能提高美术工作者的生产服从,但是请记住:人工智能,没有人工就没有智能。Stable Diffusion并不是简朴易上手的APP,我们必要花费肯定的时间和精神去学习和不断调试,才能使其真正为我们所用,高效产出效果符合需求的图片。
最后,我为大家简朴罗列一下使用SD的几项焦点本领:
1.Github使用本领,使用者在纯熟把握Github开源项目的安装、调参、排错、编程环境设置等技能后,就不会在SD报错时六神无主了。
2.基础出图调试本领,这项本领能够让使用者无需帮忙就能自行摸索稳固输出可用的图片。
3.Controlnet构图本领,基于Controlnet的构图控制是美术从业者驾驭SD的缰绳,不会用Controlnet,你只会被随机噪声牵着走。
4.学习插件并组合使用的本领。
5.Lora等小模子的练习本领(进阶)。
关于AI绘画技术储备
学好 AI绘画 岂论是就业照旧做副业赚钱都不错,但要学会 AI绘画 照旧要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小同伴们一点资助!
对于0基础小白入门:
假如你是零基础小白,想快速入门AI绘画是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合本身的学习方案
包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!
1.stable diffusion安装包 (全套教程文末领取哈)
随着技术的迭代,现在 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。
最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!别的还带来了Mac版本,仅支持macOS 12.3或更高版本。
2.stable diffusion视频合集
我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。
3.stable diffusion模子下载
stable diffusion往往一开始使用时图片等无法到达抱负的生成效果,这时则必要通过使用大量练习数据,调整模子的超参数(如学习率、练习轮数、模子巨细等),可以使得模子更好地适应数据集,并生成更加真实、正确、高质量的图像。
4.stable diffusion提示词
提示词是构建由文本到图像模子解释和理解的单词的过程。可以把它理解为你告诉 AI 模子要画什么而必要说的语言,整个SD学习过程中都离不开这本提示词手册。
5.SD从0到落地实战演练
假如你能在15天内完成所有的任务,那你堪称天才。然而,假如你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。
这份完整版的学习资料已经上传CSDN,朋友们假如必要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |