qidao123.com技术社区-IT企服评测·应用市场

标题: 怎样在亚马逊 SageMaker 进行 Stable Diffusion 模型在线服务部署 [打印本页]

作者: 南七星之家    时间: 2024-7-25 10:55
标题: 怎样在亚马逊 SageMaker 进行 Stable Diffusion 模型在线服务部署
媒介 - 浅谈 AIGC


AIGC - 引领人工智能走向春天

随着人工智能技术的发展与美满,AI Generated Content (AIGC,人工智能自动天生内容) 在内容的创作上为人们的工作和生活带来前所未有的资助,详细体现在能够资助人类提高内容生产的服从,丰富内容生产的多样性、提供更加动态且可交互的内容。AIGC 相干技术可以在创意、体现力、迭代、传播、个性化等方面,充分发挥技术优势,打造新的数字内容天生与交互形态。在这两年AIGC在AI作画、AI 作曲、AI 作诗、AI写作、AI视频天生、 AI语音合成等范畴持续大放异彩;尤其是近段时间火遍全网的AI绘画,作为用户的我们只要简单输入几个关键词几秒钟之内一幅画作就能诞生。
春天里盛开的 AI 绘画

最近以AIGC带来巨大生产力提升的时尚宠儿不断进化升级,争相表态。我们迎来ChatGPT 系列技术带给我们一波又一波的AI盛宴,而在盘算机视觉范畴,AI 绘画近两年正在渐渐走向图像天生舞台的中央。

文本天生图像(AI 绘画)是根据文本天生图像的的新型生产方式,相比于人类创作者,文本天生图像显现出了创作成本低、速度快且易于批量化生产的优势。
AI 绘画之Stable Diffusion 2.0 登场

近一年来,AI绘画范畴迅猛发展,国表里科技巨头和初创企业争相涌入,出现了不少文本天生图像的技术产品。这些产品背后主要使用基于扩散天生算法的 dall-e-2 和 stable diffusion 等模型。
   2022年 Stable Diffusion 2.0 版本的发布,再次点燃了无数创作者使用AI文本图像天生技术来天生高质量创意图像的热情 ,如下图所示,Stable Diffusion相干代码堆栈,gitHub star 数量正在飞速增长:
  

   与 Stable Diffusion 上一个版本相比,Stable Diffusion 2.0 取得了更加优秀的图像天见效果,详细体现如下:
   大家都有机会成为前沿的技术探索者

   Stable Diffusion 2.0 和 chatGPT 等系列模型在盘算机视觉和自然语言处理两大AI应用范畴的优秀体现, 引起学术界和工业界的极大轰动,人工智能奇迹发展好像迎来了又一个春天。
  众所周知,随着 AI 任务复杂性和应用范围增长,高精度大规模不断涌现,AI模型的训练和推理对算力的要求越来越高,对于中小企业和个人开辟者而言,如果想训练或者部署稍微大的AI模型就不得不面临购买大量算力资源高投入的风险,而具备高算力资源的企业则能够有机会把握住各种神奇AIGC技术全面着花落地的汗青机遇。
   我们平凡的创业者和开辟者,有没有机会去训练和部署我们所看好范畴的AIGC模型呢,答案是肯定的,在当下这个云服务期间,大家都有机会成为前沿的技术探索者。
  最近受邀到场了亚马逊云科技 『云上探索实验室』实践云上技术的系列运动,通过Amazon SageMaker 平台快速完成 AIGC模型推理服务在线web部署,带给我许多开导和惊喜,原来在云端进行AI模型推理部署可以如此简洁,优雅、流畅。在到场这次运动实践的过程中,我也学到了许多有益的知识和技能, 接下来的博文就会以我的一次AIGC模型(Stable Diffusion 2.0 )web服务部署之旅带大家一起体验怎样在云端去落地AI模型服务:

基于Amazon SageMaker进行Stable Diffusion 模型部署

认识 Amazon SageMaker

Amazon SageMaker 是一项完全托管的机器学习服务:借助SageMaker的多种功能,数据科学家和开辟人员可以快速轻松地构建和训练机器学习模型,然后直接部署至生产环境停当的托管环境。SageMaker涵盖了ML 的整个工作流,可以标记和预备数据、选择算法、训练模型、调整和优化模型以便部署、预测和实行操纵。
经过已往一周多的学习和实践体验,我发现这个平台简直就是为我们这些创业者和个人开辟者量身打造的AI服务落地利器。许多AI工程项目,我们只需去构造好自己的训练集和测试集,别的的模型训练、推理、部署,Amazon SageMaker 都能够帮我们轻松完成。
本次博文所分享的 Stable Diffusion 2.0,通过参考官方提供的技术文档,只用了 20分钟左右的时间,我就在Amazon SageMaker 上乐成搭建了一套流畅的AI绘画在线服务,接下来,让我们一起揭秘。
借助 Amazon SageMaker 进行环境搭建和模型推理

1. 创建 jupyter notebook 运行环境


   在搜索框中搜索 SageMaker ,如下图所示
  

   这里我们创建一个条记本编程实例
  

   我这里选择的配置如下:
  

   选择角色,其他的默认即可
  

   大概5分钟左右,实例就创建乐成啦
  


   上传刚刚下载的代码
  

   直接打开这个代码
  

   选择合适的conda环境
  

2. 一键运行所有代码

   这里我们直接一键运行运行所有代码即可,代码实行过程中会依次完成 Stable Diffusion 模型相干类和函数的代码界说、推理测试,并打包代码和模型,然后部署模型至Sagemaker 推理终端节点 (PS:这里的所有代码运行完毕大概需要5到10分钟左右)
  

关键代码分析如下

1. 环境预备,代码模型下载

   检查当前 pyTorch 版本
  1. !nvcc --version
  2. !pip list | grep torch
复制代码
  安装 Stable Diffusion 代码运行额外需要的依靠库,这网速飞快
  1. !sudo yum -y install pigz
  2. !pip install -U pip
  3. !pip install -U transformers==4.26.1 diffusers==0.13.1 ftfy accelerate
  4. !pip install -U torch==1.13.1+cu117 -f https://download.pytorch.org/whl/torch_stable.html
  5. !pip install -U sagemaker
  6. !pip list | grep torch
复制代码
  下载代码和模型文件,这里直接下载Hugging Face提供的代码和模型即可
  

2. 在Notebook中配置并使用模型

   直接调用 函数进行模型加载
  1. import torch
  2. import datetime
  3. from diffusers import StableDiffusionPipeline
  4. # Load stable diffusion
  5. pipe = StableDiffusionPipeline.from_pretrained(SD_MODEL, torch_dtype=torch.float16)
复制代码
  在 Cuda 上进行模型的推理,这里 Stable Diffusion V2 能够支持天生的最大图像尺寸为 768 * 768
  1. # move Model to the GPU
  2. torch.cuda.empty_cache()
  3. pipe = pipe.to("cuda")
  4. # V1 Max-H:512,Max-W:512
  5. # V2 Max-H:768,Max-W:768
  6. print(datetime.datetime.now())
  7. prompts =[
  8.     "Eiffel tower landing on the Mars",
  9.     "a photograph of an astronaut riding a horse,van Gogh style",
  10. ]
  11. generated_images = pipe(
  12.     prompt=prompts,
  13.     height=512,
  14.     width=512,
  15.     num_images_per_prompt=1
  16. ).images  # image here is in [PIL format](https://pillow.readthedocs.io/en/stable/)
  17. print(f"Prompts: {prompts}\n")
  18. print(datetime.datetime.now())
  19. for image in generated_images:
  20.     display(image)
复制代码
  友谊提示 :如果报错,遇到推理时 GPU 内存不敷,则可以尝试以下三种方式进行解决
   3. 部署模型至Sagemaker 推理终端节点

   我们这里直接使用 AWS 的 SageMaker Python 开辟工具包部署模型刚刚已履历证能够运行乐成的模型和打包好的代码。
  
  1. import sagemaker
  2. import boto3
  3. '''
  4. # 创建 Session
  5. '''
  6. sess = sagemaker.Session()
  7. # sagemaker session bucket -> used for uploading data, models and logs
  8. # sagemaker will automatically create this bucket if it not exists
  9. sagemaker_session_bucket=None
  10. if sagemaker_session_bucket is None and sess is not None:
  11.     # set to default bucket if a bucket name is not given
  12.     sagemaker_session_bucket = sess.default_bucket()
  13. try:
  14.     role = sagemaker.get_execution_role()
  15. except ValueError:
  16.     iam = boto3.client('iam')
  17.     role = iam.get_role(RoleName='sagemaker_execution_role')['Role']['Arn']
  18. sess = sagemaker.Session(default_bucket=sagemaker_session_bucket)
  19. print(f"sagemaker role arn: {role}")
  20. print(f"sagemaker bucket: {sess.default_bucket()}")
  21. print(f"sagemaker session region: {sess.boto_region_name}")
复制代码

  1. %%writefile ./$SD_MODEL/code/inference.py
  2. import base64
  3. import torch
  4. from io import BytesIO
  5. from diffusers import StableDiffusionPipeline
  6. '''
  7. # 加载模型到CUDA
  8. '''
  9. def model_fn(model_dir):
  10.     # Load stable diffusion and move it to the GPU
  11.     pipe = StableDiffusionPipeline.from_pretrained(model_dir, torch_dtype=torch.float16)
  12.     pipe = pipe.to("cuda")
  13.     return pipe
  14. '''
  15. # 推理方法
  16. '''
  17. def predict_fn(data, pipe):
  18.     # 解析参数 get prompt & parameters
  19.     prompt = data.pop("prompt", "")
  20.     # set valid HP for stable diffusion
  21.     height = data.pop("height", 512)
  22.     width = data.pop("width", 512)
  23.     num_inference_steps = data.pop("num_inference_steps", 50)
  24.     guidance_scale = data.pop("guidance_scale", 7.5)
  25.     num_images_per_prompt = data.pop("num_images_per_prompt", 1)
  26.     # 传入参数,调用推理 run generation with parameters
  27.     generated_images = pipe(
  28.         prompt=prompt,
  29.         height=height,
  30.         width=width,
  31.         num_inference_steps=num_inference_steps,
  32.         guidance_scale=guidance_scale,
  33.         num_images_per_prompt=num_images_per_prompt,
  34.     )["images"]
  35.     # create response
  36.     encoded_images = []
  37.     for image in generated_images:
  38.         buffered = BytesIO()
  39.         image.save(buffered, format="JPEG")
  40.         encoded_images.append(base64.b64encode(buffered.getvalue()).decode())
  41.     # create response
  42.     return {"generated_images": encoded_images}
复制代码
在 Amazon Cloud9 创建前后端 Web 应用

AWS Cloud9 是一种基于云的集成开辟环境 (IDE),只需要一个浏览器,即可编写、运行和调试代码。包括一个代码编辑器、调试程序和终端,并且预封装了适用于 JavaScript、Python、PHP 等常见编程语言的基本工具,无需安装文件或配置开辟盘算机,即可开始新的项目。

1. 创建云服务实例,并进行web环境安装

   这里我试用了 Cloud9 云服务,在查找服务处搜索 Cloud9,并点击进入Cloud9服务面板即可
  

   点击创建环境
  

   我这里的设置如下
  

   其他部分配置保持默认,在页面底部点击橙色的 Create 按钮创建环境。 环境的创建将耗费1-2分钟的时间。
  

   创建乐成之后,点击 open 进入服务控制台
  

   粘贴左侧的代码,复制到控制台bash窗口进行运行,会自动下载和解压代码
  1. cd ~/environment
  2. wget https://static.us-east-1.prod.workshops.aws/public/73ea3a9f-37c8-4d01-ae4e-07cf6313adac/static/code/SampleWebApp.zip
  3. unzip SampleWebApp.zip
  4. #  在 AWS Cloud9 上安装 Flask 和 boto3
  5. pip3 install Flask
  6. pip3 install boto3
复制代码

2. 运行启动web服务,输入想要天生的图像参数和提示词,调用推理服务

   依靠的环境安装好之后,就可以运行这个服务代码
  

   服务启动乐成之后,访问 127.0.0.1:8080 即可访问当地服务;设定 width 和 Length 参数,以及想要天生的图片描述,然后点击提交
  

   期待 几秒钟之后,就得到了上面输入的两个 提示词对应天生的图像,看得出来效果还优劣常不错的;
  

3. 文本图像天生示例

   这里提供3组文本图像天生的示例,方便各位同砚参考:
  提示词天生图像示例1天生图像示例2A rabbit is piloting a spaceship
Driverless car speeds through the desert
A small cabin on top of a snowy mountain in the style of Disney, artstation
4. Stable Diffusion 2.0 模型效果优缺点分析

   现在业界已经有不少文本图像天生的服务和模型推出,Stable Diffusion 2.0 的图像天见效果,团体上我以为相当惊艳,优点很明显:
   不足之处,Stable Diffusion 2.0 对于过短和过长的文本提示词天生的图像可能效果差别很大,这意味着有的时候,如果想要天生得到更加贴近我们预期的图像,需要对专业的文本提示词汇有所了解,使得输入的文本提示词更加精准和容易让模型理解。
亚马逊云科技之云上探索实验室

亚马逊云服务使用体验总结

   通过此次深度到场亚马逊云科技之云上探索实验室运动并上手实践不同AI项目的云端服务部署,我进一步认识到 AWS(Amazon Web Services)的强大地点:
     AWS 相比其他云服务厂商,还具备以下优点:
   前沿技术有待大家一起去探索

   这次有幸受邀到场亚马逊云科技【云上探索实验室】运动,跟着亚马逊云科技技术团队提供的系列非常详尽的 AI模型云上推理部署实战文档和视频教程一步步进行真实的云上服务部署操纵,让我再次认识到AI在各个范畴技术突破所带来的强大生产力,而通过借助 亚马逊 SageMaker 平台进行AI模型服务部署大大简化我们平凡开辟者进行AI模型部署服务的难度,使得对于中小企业和个人开辟者而言,AI服务的快速落地也不再是一件难事。
  
   通过使用 亚马逊 SageMaker 服务平台,我们只需要一个浏览器,即可编写、运行和调试各种代码,无需进行复杂的机器适配和环境搭建,能够快速完成AI模型的推理、测试、验证部署工作。
  如果你也想亲身感受最新、最热门的亚马逊云科技开辟者工具与服务,那么只需点击下方链接,即可跟着亚马逊云科技团队工程师一起对更多有趣的AI技术进行探索与实践,出击吧,AI 追梦人


   率先完成学习打卡小同伴,还有丰厚奖品可以领取哟
  


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 qidao123.com技术社区-IT企服评测·应用市场 (https://dis.qidao123.com/) Powered by Discuz! X3.4