伤心客 发表于 2024-7-31 11:09:09

Stable Diffusion 模型演进:LDM、SD 1.0, 1.5, 2.0、SDXL、SDXL-Turbo 等

节前,我们星球组织了一场算法岗技术&口试讨论会,约请了一些互联网大厂朋友、到场社招和校招口试的同学。
针对算法岗技术趋势、大模型落地项目履历分享、新手如何入门算法岗、该如何准备、口试常考点分享等热门话题举行了深入的讨论。
合集:
连续火爆!!!《AIGC 口试宝典》已圈粉无数!
一、背景

这里我们继承介绍 Stable Diffusion 相干的三个图像生成工作,Latent Diffusion Model(LDM)、SDXL 和 SDXL-Turbo。这三个工作的紧张作者根本雷同,早期是在 CompVis 和 Runway 等发表,后两个紧张由 Stability AI 发表。
LDM 对应的论文为: High-Resolution Image Synthesis with Latent Diffusion Models
LDM 对应的代码库为:High-Resolution Image Synthesis with Latent Diffusion Models
SDXL 对应的论文为: SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis
SDXL 对应的代码库为:Generative Models by Stability AI
SDXL-Turbo 对应的论文为: Adversarial Diffusion Distillation
SDXL-Turbo 对应的代码库为:Generative Models by Stability AI
https://img-blog.csdnimg.cn/img_convert/c88ed17094f287c83f92e83e6b0bea70.png
二、择要

2021 年 05 月 OpenAI 发表 Diffusion Models Beat GANs,扩散模型(Diffusion Model,DM)的结果开始超越传统的 GAN 模型,进一步推进了 DM 在图像生成范畴的应用。
不过早期的 DM 都直接作用于像素空间,因此如果要优化一个强大的 DM 通常需要耗费数百 GPU 天时,并且因为需要迭代多步,推理的本钱也很高。为了实现在有效的计算资源上练习 DM,同时保持其质量和灵活性,作者提出将 DM 应用于强大的预练习 AutoEncoder 的隐空间(Latent Space),这也就是为什么提出的模型叫 LDM。与以前的工作相比,这种方式练习 DM 初次实现了在低沉复杂性和保留细节之间的平衡,并大大进步视觉的逼真度。
别的,作者还在模型中引入交叉注意力层,可以将文本、界限框等条件很方便地引入到模型中,将 DM 转化为强大而灵活的生成器,实现高分辨率的生成。作者提出的 LDM 模型同样在图像修复、类别条件生成等方面取得很好的结果,同时与基于像素空间的扩散模型相比,大大低沉计算要求。
如下图 Figure 5 所示为其文本引导图像生成的结果:
https://img-blog.csdnimg.cn/img_convert/35926ec3a9cfa453cfd0c4086fcaec3c.png
在 Stable Diffusion(LDM)的底子上,SDXL 将 U-Net 主干扩大了三倍:模型参数增加紧张是使用了第二个 Text Encoder,因此也就使用更多的 Attention Block 和 Cross Attention 上下文。别的,作者设计了多分辨率练习方案,在多个差别长宽比的图像上练习。作者还引入了一个细化模型,用于进一步提升生成图像的视觉逼真度。结果表明,与之前版本的 Stable Diffusion 相比,SDXL 的性能有了显著提升,并取得与其他非开源模型相称的结果。此次的模型和代码同样完全开源。
如下图所示为 SDXL 生成的图像:
https://img-blog.csdnimg.cn/img_convert/f6b74dcc04938f8a7f04d845bf26377a.png
在 SDXL 的底子上,作者提出了对抗性扩散蒸馏技术(Adversarial Diffusion Distillation,ADD),将扩散模型的步数低沉到 1-4 步,同时保持很高的图像质量。结果表明,模型在 1 步生成中显着优于现有的几步生成方法,并且仅用 4 步就超越了最先进的 SDXL 的性能。练习出的模型称为 SDXL-Turbo。
如下图 Figure 1 所示为 SDXL-Trubo 生成的图像:
https://img-blog.csdnimg.cn/img_convert/dc3c23fac3d6e745420b82b87f934591.png
三、Latent Diffusion Model(LDM)

3.1. LDM 模型概览

LDM 和其他扩散生成模型结构雷同,团体来说包罗三个组件:


[*] Auto Encoder:下图左侧部分,包罗红框的 Encoder 和蓝框的 Decoder,此中 Encoder 紧张用于练习中生成 target z,推理阶段不需要。而 Decoder 用于从隐空间编码(latent code)恢复出图像。
[*] Conditioning:下图右侧部分,用于对各种条件信息举行编码,生成的 embedding 会在扩散模型 U-Net 中使用。差别的条件可能会有差别的 Encoder 模型,也有差别的使用方式(对应下图中的 switch),比如:
[*] 对于文本类型条件,可以使用 Bert Encoder,也可以使用 CLIP 中的 Text Encoder 将文本编码为 embedding。
[*] 对于图像类型条件,比如图像修复、分割条件,可以将其编码后与噪声 Concat 作为输入,而不是通过 Attention 机制交叉。
[*] Denoising U-Net:下图中间部分,用于从随机噪声 zT 中通过几步迭代生成 latent code,然后使用 Decoder 恢复出图像。此中的各种条件信息都会通过 Cross Attention 举行交叉融合。需要阐明的是,U-Net 生成的目标是 x 经 Encoder 编码后的 embedding,通常也称为隐向量,而不是直接生成图像像素,因此说 U-Net 是作用在隐空间(Latent Space)。
https://img-blog.csdnimg.cn/img_convert/4f7f408fa7050916235b186fcd7e1a18.png
3.2. AutoEncoder

AutoEncoder 中的 Encoder 用于对图像 x 举行压缩,假设输入图像分辨率为 HxW,则 f 压缩率对应的 latent code 巨细为 H/f x W/f。也就是说,如果图像分辨率为为 512x512,则 f=4 的压缩率对应的 latent code 巨细为 64x64,也就是 z 的巨细为 64x64。针对差别的压缩率 f,作者也举行了一系列实行,对应的模型为 LDM-{f},总共有 LDM-1,LDM-2,LDM-4,LDM-8,LDM-16,LDM-32。需要阐明的是,LDM-1 相称于没有压缩,也就是直接作用于像素空间,LDM-32 相称于 32 倍压缩,512x512 分辨率图像对应的 latent code 只有 16x16。
作者在类别条件生成任务上对几种压缩比举行了实行验证,如下图 Figure 6 所示,可见 LDM-4、LDM-8、LDM-16 得到最好的平衡。LDM-32 的压缩率太高,反而影响了生成质量:
https://img-blog.csdnimg.cn/img_convert/85863d8e947f883c154bd8343a87eac0.png
如下图 Table 6 所示,作者同样在图像修复任务上验证了差别压缩率、Cross Attention 的影响,可以看出 LDM-4 的练习、推理吞吐相比 LDM-1 有显着提升,并且 Attention 对吞吐的影响也不大。同时 LDM-4 还得到更好的结果(更低的 FID):
https://img-blog.csdnimg.cn/img_convert/19157d6b7eccdf0df36a3d303e2b159e.png
3.3. Latent Diffusion Models

本文中作者使用的 U-Net 模型是基于 OpenAI Diffusion Models Beat GANs 中的 Ablated U-Net 修改而来,具体来说是将此中的 Self-Attention 更换为 T 个 Transformer block,每个 block 中包罗一个 Self-Attention,一个 MLP 和一个 Cross-Attention,如下图所示,此中的 Cross Attention 就是用于和其他条件的 embedding 举行交叉融合:
https://img-blog.csdnimg.cn/img_convert/ea12a6154e44436816dca0f5008dab47.png
3.4. Conditioning 机制

LDM 支持多种条件类型,比如类别条件、文本条件、分割图条件、界限框条件等。
对于文本条件,可以使用常用的文本 Encoder,比如 Bert 模型,或者 CLIP 的 Text Encoder,其首先将文本转换为 Token,然后颠末模型后每个 Token 都会对应一个 Token embedding,以是文本条件编码后变为一个 Token embedding 序列。
https://img-blog.csdnimg.cn/img_convert/0998085d2f76fdf9566dfc6d3895c357.png
https://img-blog.csdnimg.cn/img_convert/56999d036349e85f9c1ade524b411b3c.png
对于 layout 条件,比如常见的界限框,每个界限框都会以(l,b,c)的方式编码,此中 l 体现左上坐标,b 体现右下坐标,c 体现类别信息。
https://img-blog.csdnimg.cn/img_convert/9490014056deffd46cc8ec1bb9b69e38.png
对于类别条件,每个类别都会以一个可学习的 512 维向量体现,同样通过 Cross-Attention 机制融合。
https://img-blog.csdnimg.cn/img_convert/9dc57c144435824ac8e1ec0d883c1915.png
对于分割图条件,可以将图像插值、卷积后编码为 feature map,然后作为条件。
https://img-blog.csdnimg.cn/img_convert/77e81c3c8439a0c2d1d28bbd31dfca3e.png
https://img-blog.csdnimg.cn/img_convert/0ef17cf6eb4eaafe8b5895a5967f326c.png
此中文本条件和 layout 条件都通过 Transformer Encoder 编码,对应的超参如下图 Table 17 所示,也就是文本最多只能编码为 77 个 Token,Layout 最多编码为 92 个 Token:
https://img-blog.csdnimg.cn/img_convert/34bc718a7ab23d81e6874e69f60c4e92.png
所谓的 layout-to-image 生成如下图所示,给定多个界限框,每个界限框有个类别信息,生成的图像要在对应的位置生成对应的目标:
https://img-blog.csdnimg.cn/img_convert/4c0493c31a30db05c6695ec1a04134c5.png
3.5. 实行结果

3.5.1. 无条件生成

如下图 Table 1 所示,作者在多个任务上评估了 LDM-4 和 LDM-8 的无条件图像生成结果,可以看出,在大部分任务上都得到了很不错的结果:
https://img-blog.csdnimg.cn/img_convert/051346594da6580b0f6a8a94afb5a96e.png
3.5.2. 类别条件生成

如下图 Table 3 所示,作者同样在 ImageNet 上与 ADM(Diffusion Model Beat GANs)等模型举行了类别条件图像生成对比,可见在 FID 和 IS 指标上得到了最优或次优的结果:
https://img-blog.csdnimg.cn/img_convert/f6ef3f001d478e936d915a270216342e.png
3.5.3. LDM-BSR

作者同样将 BSR-degradation 应用到超分模型的练习,得到了更好的结果,BSR degradation Pipeline 包罗 JPEG 压缩噪声、相机传感器噪声、针对下采样的差别图像插值方法,高斯含糊核以及高斯噪声,并以随机顺序应用于图像(具体可参考代码 https://github.com/CompVis/stable-diffusion/blob/main/ldm/modules/image_degradation/bsrgan_light.py),最终得到了不错的结果:
https://img-blog.csdnimg.cn/img_convert/60d541b200d2d8ece58aa8782429a2c1.png
3.6. 计算需求

作者与其他模型对比了练习和推理的计算需求和相干的参数目、FID、IS 等指标,提出的模型在更小的代价下得到更好的结果:
https://img-blog.csdnimg.cn/img_convert/090b5830cfb0ddd781d070c8b3a5e143.png
四、SDXL

4.1. SDXL 模型概览

如下图所示,SDXL 相比 SD 紧张的修改包罗(模型总共 2.6B 参数目,此中 text encoder 817M 参数目):


[*] 增加一个 Refiner 模型,用于对图像进一步地精细化
[*] 使用 CLIP ViT-L 和 OpenCLIP ViT-bigG 两个 text encoder
[*] 基于 OpenCLIP 的 text embedding 增加了一个 pooled text embedding
https://img-blog.csdnimg.cn/img_convert/a789053fd28ec3f1960345fda6d4e3db.png
https://img-blog.csdnimg.cn/img_convert/cbf948389f9b1bcffb012605534bce15.png
4.2. 微条件(Micro-Conditioning)

4.2.1. 以图像巨细作为条件

在 SD 的练习范式中有个显着的缺陷,对图像巨细有最小长宽的要求。针对这个问题有两种方案:


[*] 丢弃分辨率过小的图像(比方,SD 1.4/1.5 丢弃了小于 512 像素的图像)。但是这可能导致丢弃过多数据,如下图 Figure 2 所示为预练习数据会合图像的长、宽分布,如果丢弃 256x256 分辨率的图像,将导致 39% 的数据被丢弃。
[*] 另一种方式是放大图像,但是可能会导致生成的样本比力含糊。
https://img-blog.csdnimg.cn/img_convert/1e35fa07708f516fc5e632b62a10dd5e.png
针对这种环境,作者提出将原始图像分辨率作用于 U-Net 模型,并提供图像的原始长和宽(csize = (h, w))作为附加条件。并使用傅里叶特性编码,然后会拼接为一个向量,把它扩充到时间步长 embedding 中并一起输入模型。
如下图所示,在推理时指定差别的长宽即可生成相应的图像,(64,64)的图像最含糊,(512, 512)的图像最清晰:
https://img-blog.csdnimg.cn/img_convert/be15365591def3afc8cdda52239ac159.png
4.2.2. 以裁剪参数作为条件

别的,以前的 SD 模型存在一个比力典范的问题:生成的物体不完备,像是被裁剪过的,如下图 SD1.5 和 SD 2.1 的结果。作者猜测这可能和练习阶段的随机裁剪有关,思量到这个因素,作者将裁剪的左上坐标(top, left)作为条件输入模型,和 size 雷同。如下图 Figure 4 中 SDXL 的结果,其生成结果都更加完备:
https://img-blog.csdnimg.cn/img_convert/e3e50047f383de2498ca092e24b439fd.png
如下图 Figure 5 所示,在推理阶段也可以通过裁剪坐标来控制位置关系:
https://img-blog.csdnimg.cn/img_convert/ca46554eadfc39c3f818968117febec3.png
4.3. 多分辨率练习

真实世界的图像会包罗差别的巨细和长宽比,而文本到模型生成的图像分辨率通常为 512x512 或 1024x1024,作者以为这不是一个自然的选择。受此启发,作者以差别的长宽比来微调模型:首先将数据分别为差别长宽比的桶,此中尽可能包管总像素数接近 1024x1024 个,同时以 64 的整数倍来调整高度和宽度。如下图所示为作者使用的宽度和高度。在练习过程中,每次都从同样的桶中选择一个 batch,并在差别的桶间瓜代。别的,和之前的 size 雷同,作者会将桶的高度和宽度 (h, w)作为条件,经傅里叶特性编码后添加到时间步 embedding 中:
https://img-blog.csdnimg.cn/img_convert/5700147ff9e2762d8c509170c279bae1.png
4.4. 练习

SDXL 模型的练习包罗多个步骤:


[*] 基于内部数据集,以 256x256 分辨率预练习 6,000,000 step,batch size 为 2048。使用了 size 和 crop 条件。
[*] 继承以 512x512 分辨率练习 200,000 step。
[*] 最后使用多分辨率(近似 1024x1024)练习。
根据以往的履历,作者发现所得到的的模型偶然偶尔会生成局部质量比力差的图像,为了解决这个问题,作者在同一隐空间练习了一个独立的 LDM(Refiner),该 LDM 专门用于高质量、高分辨率的数据。在推理阶段,直接基于 Base SDXL 生成的 Latent code 继承生成,并使用雷同的文本条件(当然,此步骤是可选的),实行证明可以进步背景细节以及人脸的生成质量。
4.5. 实行结果

如下图所示,作者基于用户评估,最终带有 Refiner 的 SDXL 得到了最高分,并且 SDXL 结果显着优于 SD 1.5 和 SD 2.1。
https://img-blog.csdnimg.cn/img_convert/5e9ec98a8f96ce7fe264ed0e9db5ede0.png
如下图 Figure 10 所示为 SDXL(没有 Refiner) 和 Midjourney 5.1 的对比结果,可见 SDXL 的结果略胜一筹:
https://img-blog.csdnimg.cn/img_convert/3392956880927a5f97cf92100b1bf548.png
如下图 Figure 11 所示为 SDXL(带有 Refiner) 和 Midjourney 5.1 的对比结果,可见 SDXL 的结果同样略胜一筹:
https://img-blog.csdnimg.cn/img_convert/81525e3f04ac2b6b06eb815f5c929e34.png
五、SDXL-Turbo

5.1. SDXL-Turbo 方法

SDXL-Turbo 在模型上没有什么修改,紧张是引入蒸馏技术,以便镌汰 LDM 的生成步数,提升生成速率。大抵的流程为:


[*] 从 Tstudent 中采样步长 s,对于原始图像 x0 举行 s 步的前向扩散过程,生成加噪图像 xs。
[*] 使用学生模型 ADD-student 对 xs 举行去噪,生成去噪图像 xθ。
[*] 基于原始图像 x0 和去噪图像 xθ 计算对抗损失(adversarial loss)。
[*] 从 Tteacher 中采样步长 t,对去噪后的图像 xθ 举行 t 步的前向扩散过程,生成 xθ,t。
[*] 使用西席模型 DM-student 对 xθ,t 举行去噪,生成去噪图像 xψ。
[*] 基于学生模型去噪图像 xθ 和西席模型去噪图像 xψ 计算蒸馏损失(distillation)。
[*] 根据损失举行反向传播(注意,西席模型不更新,因此会 stop 梯度)。
https://img-blog.csdnimg.cn/img_convert/708c877b0ff4d5c7c95cfec324dd3dd7.png
需要阐明的是,通常 ADD-student 模型需要预练习过程,然后再蒸馏。别的,Tstudent 的 N 比力小,作者设置为 4,而 Tteacher 的 N 比力大,为 1000。也就是学生模型可能只加噪 1,2,3,4 步,而西席模型可能加噪 1-1000 步。
别的,作者在练习中还用了其他技巧,比如使用了 zero-terminal SNR;西席模型不是直接作用于原始图像 x0,而是作用于学生模型恢复出的图像 xθ,否则会出现 OOD(out of distribution) 问题;作者还应用了 Score Distillation Loss,并且与最新的 noise-free score distillation 举行了对比。
5.2. 消融实行

作者举行了一系列的消融实行:


[*] (a) 在判别器(Discriminator)中使用差别模型的结果。
[*] (b) 在判别器中使用差别条件的结果,可见使用文本+图像条件得到最好结果。
[*] © 学生模型使用预练习的结果,使用预练习结果显着提升。
[*] (d) 差别损失的影响。
[*] (e) 差别学生模型和西席模型的影响。
[*] (f) 西席 step 的影响。
https://img-blog.csdnimg.cn/img_convert/b15f8e9a91e6b5c115562e9aff69bf9c.png
5.3. 实行结果

如下图所示,作者与差别的蒸馏方案举行了对比,本文提出的方案只需一步就能得到最优的 FID 和 CLIP 分数:
https://img-blog.csdnimg.cn/img_convert/e8c64c7b7e74c2a2fea9c11ef35fe230.png
如下图 Figure 5 和 Figure 6 所示为性能和速率的对比,ADD-XL 1 步比 LCM-XL 4 步的结果更好,同时 ADD-XL 4 步可以超越 SDXL 50 步的结果,总之,ADD-XL 得到了最佳性能:
https://img-blog.csdnimg.cn/img_convert/25865835d7833123ad9cd39c5282da96.png
https://img-blog.csdnimg.cn/img_convert/0e0b2ed16cc8ec6ff78e1d9012f7592c.png
六、演进

6.1. Latent Diffusion

Stable Diffusion 之前的版本,对应的正是论文的开源版本,位于代码库 High-Resolution Image Synthesis with Latent Diffusion Models 中。
该版本发布于 2022 年 4 月,紧张包罗三个模型:


[*] 文生图模型:基于 LAION-400M 数据集练习,包罗 1.45B 参数。
[*] 图像修复模型:指定区域举行擦除。
[*] 基于 ImageNet 的类别生成模型:在 ImageNet 上练习,指定类别条件生成,得到了 3.6 的 FID 分数。使用了 Classifier Free Guidance 技术。
代码实现参考了 OpenAI 的 Diffusion Models Beat GANs 代码实现。
6.2. Stable Diffusion V1

Stable Diffusion 的第一个版本,特指文生图扩散模型,位于代码库 GitHub - CompVis/stable-diffusion: A latent text-to-image diffusion model 中。
该版本发布于 2022 年 8 月,该模型包罗 2 个子模型:


[*] AutoEncoder 模型:U-Net,8 倍下采样,包罗 860M 参数。
[*] Text Encoder 模型:使用 CLIP ViT-L/14 中的 Text encoder。
模型首先在 256x256 的分辨率下练习,然后在 512x512 的分辨率下微调。总共包罗 4 个子版本:


[*] sd-v1-1.ckpt:
[*] 在 LAION-2B-en 数据集上以 256x256 分辨率练习 237k step。
[*] 在 LAION-high-resolution(LAION-5B 中超过 1024x1024 分辨率的 170M 样本)上以 512x512 分辨率继承练习 194k step。
[*] sd-v1-2.ckpt:
[*] 复用 sd-v1-1.ckpt,在 LAION-aesthetics v2 5+(LAION-2B-en 中雅观度分数大于 5.0 的子集) 上以 512x512 分辨率继承练习 515k step。
[*] sd-v1-3.ckpt:
[*] 复用 sd-v1-2.ckpt,在 LAION-aesthetics v2 5+ 上以 512x512 分辨率继承练习 195k step,使用了 Classifier Free Guidance 技术,以 10% 概率删除文本条件。
[*] sd-v1-4.ckpt:
[*] 复用 sd-v1-2.ckpt,在 LAION-aesthetics v2 5+ 上以 512x512 分辨率继承练习 225k step,使用了 Classifier Free Guidance 技术,以 10% 概率删除文本条件。
对应的 FID 和 CLIP 分数如下图所示,可见从 v1-1 到 v1-2,再到 v1-3 提升都很显着,v1-3 和 v1-4 差距不大:
https://img-blog.csdnimg.cn/img_convert/185c880289a210746b2d09060e09f074.png
6.3. Stable Diffusion V1.5

Stable Diffusion 的 V1.5 版本,由 runway 发布,位于代码库 GitHub - runwayml/stable-diffusion: Latent Text-to-Image Diffusion 中。
该版本发布于 2022 年 10 月,紧张包罗两个模型:


[*] sd-v1-5.ckpt:
[*] 复用 sd-v1-2.ckpt,在 LAION-aesthetics v2 5+ 上以 512x512 分辨率继承练习 595k step,使用了 Classifier Free Guidance 技术,以 10% 概率删除文本条件。
[*] sd-v1-5-inpainting.ckpt:
[*] 复用 sd-v1-5.ckpt,在 LAION-aesthetics v2 5+ 上以 512x512 分辨率以 inpainting 练习了 440k step,使用 Classifier Free Guidance 技术,以 10% 概率删除文本条件。在 U-Net 的输入中额外加了 5 个 channel,4 个用于 masked 的图像,1 个用于 mask 本身。
对应的 FID 和 CLIP 分数如下图所示,可以看出,v1.5 相比 v1.4 的提升也不是很显着:
https://img-blog.csdnimg.cn/img_convert/6dbc96d1d139f762619728060465ab24.png
如下图所示为图像修复的示例:
https://img-blog.csdnimg.cn/img_convert/854f80a1216b006852990486ab1e7e69.png
6.3. Stable Diffusion V2

Stable Diffusion 的 V2 版本,由 Stability-AI 发布,位于代码库 GitHub - Stability-AI/stablediffusion: High-Resolution Image Synthesis with Latent Diffusion Models 中。
V2 包罗三个子版本,分别为 v2.0,v2.1 和 Stable UnCLIP 2.1:


[*] v2.0:
[*] 发布于 2022 年 11 月,U-Net 模型和 V1.5 雷同,Text encoder 模型换成了 OpenCLIP-ViT/H 中的 text encoder。
[*] SD 2.0-base:分别率为 512x512
[*] SD 2.0-v:基于 2.0-base 微调,分辨率提升到 768x768,同时利用 Progressive Distillation for Fast Sampling of Diffusion Models 提出的技术大幅低沉 Diffusion 的步数。
[*] 发布了一个文本引导的 4 倍超分模型。
[*] 基于 2.0-base 微调了一个深度信息引导的生成模型。
[*] 基于 2.0-base 微调了一个文本信息引导的修复模型。
[*] v2.1:
[*] 发布于 2022 年 12 月,模型结构和参数目都和 v2.0 雷同。并在 v2.0 的底子上使用 LAION 5B 数据集(较低的 NSFW 过滤束缚)微调。同样包罗 512x512 分辨率的 v2.1-base 和 768x768 分辨率的 v2.1-v。
[*] Stable UnCLIP 2.1:
[*] 发布于 2023 年 3 月,基于 v2.1-v(768x768 分辨率) 微调,参考 OpenAI 的 DALL-E 2(也就是 UnCLIP),可以更好的实现和其他模型的联合,同样提供基于 CLIP ViT-L 的 Stable unCLIP-L 和基于 CLIP ViT-H 的 Stable unCLIP-H。
如下图所示为 v2.0 和 v2.0-v 与 v1.5 的对比,可见其都有显着提升:
https://img-blog.csdnimg.cn/img_convert/546732d646fdbd3671907817dd892374.png
6.4. Stable Diffusion XL

Stable Diffusion 的 XL 版本,由 Stability-AI 发布,位于代码库 Generative Models by Stability AI。
该版本发布于 2023 年 06 月,紧张包罗两个模型:


[*] SDXL-base-0.9:基于多标准分辨率练习,最大分辨率 1024x1024,包罗两个 Text encoder,分别为 OpenCLIP-ViT/G 和 CLIP-ViT/L。
[*] SDXL-refiner-0.9:用来生成更高质量的图像,不应直接使用,别的文本条件只使用 OpenCLIP 中的 Text encoder。
2023 年 07 月发布 1.0 版本,同样对应两个模型:


[*] SDXL-base-1.0:基于 SDXL-base-0.9 改进。
[*] SDXL-refiner-1.0:基于 SDXL-refiner-0.9 改进。
2023 年 11 月发表 SDXL-Trubo 版本,也就是优化加速的版本。
七、参考链接


[*] https://arxiv.org/abs/2112.10752
[*] https://github.com/CompVis/latent-diffusion
[*] https://arxiv.org/abs/2307.01952
[*] https://github.com/Stability-AI/generative-models
[*] https://arxiv.org/abs/2311.17042
[*] https://github.com/Stability-AI/generative-models
[*] https://jalammar.github.io/illustrated-stable-diffusion/

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: Stable Diffusion 模型演进:LDM、SD 1.0, 1.5, 2.0、SDXL、SDXL-Turbo 等