我用Stable Diffusion把《火影忍者》动漫角色变成了真人! ...

打印 上一主题 下一主题

主题 1583|帖子 1583|积分 4749

前言

以前我就在想,假如自己喜欢的动漫角色是真人的话,该长成什么样子呢?如今有了AI绘画后,这个想法落地就简朴了。我通过AI,把许多动漫角色变成真人,而且效果还挺不错的。
今天我就以火影为例,把一些经典角色通过Stable
diffuison变成了真人,不知道读者里有多少人是火影迷,看看这些AI真人火影角色和你想象中的差不多吗?
先上图,然后再分享教程,看看我是怎么做到的。
一、把《火影忍者》动漫变真人

时间有限,我尝试天生了13位火影主角,一起来看看AI天生的火影真人长什么样子吧。
漩涡鸣人

动漫

Stable diffusion天生的真人效果

对比效果
春野樱

动漫

Stable diffusion天生的真人效果

宇智波佐助

动漫

Stable diffusion天生的真人效果

波风水门

动漫

Stable diffusion天生的真人效果

纲手

动漫

Stable diffusion天生的真人效果

宇智波鼬

动漫

Stable diffusion天生的真人效果

小南

动漫

Stable diffusion天生的真人效果

宇智波止水

动漫

Stable diffusion天生的真人效果

旗木卡卡西

动漫

Stable diffusion天生的真人效果

实在细致看的话,每个角色还或多或少存在一些问题,但我觉得总体上效果还是不错的。
各人假如另有想要我天生的动漫角色,欢迎留言或自行尝试。我下面会分享制作教程。
二、怎样利用Stable diffusion天生真人?

1、准备工作

在动手制作之前,必要先准备一些必备的AI模型和图片资料。
1)先在Mac或者Windows端,安装好Stable diffusion,具体安装步调,可以参考我之前写的教程
**虽然都能用,但在window上会比在mac上要快许多。**我还真的分别在Mac M2芯片电脑和Windows
4090显卡电脑上做了测试,用了千篇一律的AI设置,一样的提示词,效果Mac出一张图大概必要1分20秒,而Windows 只用了14秒。
速率不一样,体验是完全不同的,想要很爽的玩转AI,更高效的出到自己喜欢的图,好显卡的加成非常关键。
2)准备一个比较偏向写实的AI模型,这里推荐用Chilloutmix,

3)安装好controlNet插件,可以帮助优化天生的细节,使得天生的图片更容易控制。
4)准备好你想要AI天生的动漫图片,发起提前裁切好尺寸,且
尺寸不要大于1000px**,不然容易爆内存。然后把全部必要天生的动漫图片统一尺寸,且背景干净,如允许以淘汰后期改AI的设置项,会更方便一点。
2、制作步调

制作方法实在不难,只必要几步就可以搞定,可能比较贫苦的就是效果会有肯定的随机性,想要天生的效果好会有点碰运气。不过也是有方法可以改进的,我也会分享我自己实践过的一些更精准的方法。
1)利用Stable
Diffusion的图生图功能来做。这个功能可以依据你提供的参考图作为作画方向,贴合图比较高。但只有参考图还不够,想要效果比较好,也
必要比较精准的提示词

实在文生图也可以,但可能会与你想要的偏差会比较大,我尝试后发现可能有些效果确实挺不错,但就是太不可控了。
2)**反推提示词。**提示词的部分是必要比较精准的描述你的参考图,包括图片上全部关于角色的特性描述,这个可能对许多人来说比较难。但不要紧,咱们有办法可以办理。
利用Stable diffusion的反推提示词功能 ,这里会有2个反推提示词功能,轻微解释下:


  • Interrogate CLIP 更擅长推理较为真实的图像,更注重画面内的接洽,并天生的自然语言描述,自然语言可以理解为一句话的形式。
  • Interrogate DeepBooru 对二次元的各种元素把握很好,更适合二次元动漫风格类的图像,可以对二次元图片天生标签,并给出分段形式的关键词。

这里因为是动漫转真人,以是推荐利用第2个反推提示词功能来得到提示词,但发起在它天生的基础上自己检查下哪些是必要的,哪些是要删掉的,哪些还必要添加。这里有个注意点是,不是提示词越多越好,而是越准确越好。
3)**增加画质和风格提示词。**在写好主体画面提示词后,还必要在提示词中加入画质提示词,以及可选的小模型对画面举行定向优化
这里给各人分享我用到的画质提示词,这个是可以复用的
(RAW photo, best quality), (realistic, photo-realistic:1.3), masterpiece, an
extremely delicate and beautiful, extremely detailed, CG, unity, 8k, amazing,
finely detail, ultra-detailed, highres, absurdres, soft light
假如你必要天生真人,还可以增加下面这些提示词
realistic,masterpiece,best quality,(detailed eyes and skin),extremely detailed
eyes and face, beautiful detailed nose, beautiful detailed eyes,extremely
detailed hair
4)**增加负面提示词。**还必要增加负面提示词,同样的,负面提示词也可以直接复用我写的
paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2),
lowres, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age
spot, glans, extra fingers, fewer fingers, ((watermark:2)), (white letters:1),
(multi nipples), bad anatomy, bad hands, text, error, missing fingers, missing
arms, missing legs, extra digit, fewer digits, cropped, worst quality, jpeg
artifacts, signature, watermark, username, bad feet, {Multiple people},
blurry, poorly drawn hands, poorly drawn face, mutation, deformed, extra
limbs, extra arms, extra legs, malformed limbs, fused fingers, too many
fingers, long neck, cross-eyed, mutated hands, polar lowres, bad body, bad
proportions, gross proportions, wrong feet bottom render, abdominal stretch,
briefs, knickers, kecks, thong, {{fused fingers}}, {{bad body}}, bad-picture-
chill-75v, ng_deepnegative_v1_75t, EasyNegative, bad proportion body to legs,
wrong toes, extra toes, missing toes, weird toes, 2 body, 2 pussy, 2 upper, 2
lower, 2 head, 3 hand, 3 feet, extra long leg, super long leg, mirrored image,
mirrored noise, (bad_prompt_version2:0.8), aged up, old,
5)其他基础设置
这里的天生算法对效果影响会比较大,我测试后发现对于动漫成长真人这个需求,用Euler
a这个会比较好用。天生的步数,数字越大精致程度越高,但速率越慢。但也不是越精致效果就越好,发起20-30之间。

6)利用controlNet插件 ,对画面进一步调优
这里的插件利用属于比较进阶的用法,内容比较多,这里我先简朴讲讲,背面有时机再具体说说。

这里对效果影响比较大的有预处理器,在选择的时候要具体情况具体分析,各人可以尝试下,一样寻常深度(depth)和描边(lineaet)比较适合用到动漫这里。通过修改它的优先级和权重,可以调解插件对于效果的影响程度。
假如你不知道咋调,可以先按我这个设置做就好了。必要注意的是,预处理和模型是必要一一对应的。比如我预处理器选择了depth,那么模型也必要选择depth。这个深度算法会让天生的真人更具立体感。
3、制作经验分享

在用AI出图的过程中,我也积累了一些制作经验和你分享
1)**先测试方向精确性。**当把全部设置和提示词调解好了之后,天赋生1-2张图测试看效果,假如和预期偏差比较多,那就检查下提示词还缺了什么,或者这个偏差是因为哪些提示词影响的,做一些调解。
比如我在天生小南的时候,会发现天生的图里,小南的头上没有白花,

那么我希望天生的画面必要有小花,就在提示词里增加”White flowers on her head“提示词,如许头上就能有小花了。

2)**修改设置参数。**假如发现天生的效果经过多次后依然效果不大好,可以考虑换采样方法和其他设置项,比如把采样改到线模式,这种模式能更好的识别图片边沿,细节会更像,坏处是可能会局限在特别小的细节里。

3)**批量天生更多图。**假如发现前面几张方向对了,那么就可以把天生的图片张数加多,我一样寻常一次性天生30张,然后再来对比看效果。

4、注意事项

最后再分享一些可以帮助更容易天生图片的注意事项。
1)想要天生的人物悦目,底图不要太差,假如发现天生的效果一直不满足,可以尝试换一个底图
2)动漫角色身上的贴身配饰不要太复杂,比如火影里在头发上有穿插的护额,天生的效果就不是太好控制
3)选择的动漫图片动作和角度最好正常一些,发起用正面
4)最好不要选以手为特写的图来天生,手的天生效果还是个迷,目前对于SD来说效果没有太好
5)图片大小最幸亏1000以内,不然容易爆内存
6)一开始测试效果的时候不要天生多张,天赋生 1~2张看看方向对不对,然后再进一步多天生一些图,我一样寻常在确定方向后喜欢 30
张一次去天生。假如是晚上睡觉前的话,可以一次性天生更多一点,比如一次性天生100张


总结

这篇文章我前后写了快4个星期,实在方法我很早就知道,但自己在实践过程中会遇到各种奇葩问题。一开始天生的图跟鬼一样,踩了许多坑,不过正是因为在过程中遇到的各种各样的坑,让我对于Stable
Diffusion有了一个全新的认识,对它的各种功能原理和插件利用有了非常深度的理解。


为了得到文章里的这些图,我共输出了近万张图
这里直接将该软件分享出来给各人吧~有必要的扫描即可领取

AIGC技术的将来发展前景广阔,随着人工智能技术的不停发展,AIGC技术也将不停进步。将来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更机动的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关紧张。将来,AIGC技术将继续得到进步,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。


一、AIGC全部方向的学习门路
AIGC全部方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。


二、AIGC必备工具
工具都帮各人整理好了,安装就可直接上手!

三、最新AIGC学习笔记
当我学到肯定基础,有自己的理解本领的时候,会去阅读一些先辈整理的册本或者手写的笔记资料,这些笔记具体纪录了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思绪。


四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思绪,从基础到深入,还是很容易入门的。

五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才气将自己的所学运用到现实当中去,这时候可以搞点实战案例来学习。



免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

干翻全岛蛙蛙

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表