论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
人工智能
›
人工智能
›
AMD 显卡笔记本windows11满血玩转Stable Diffusion ...
AMD 显卡笔记本windows11满血玩转Stable Diffusion
傲渊山岳
论坛元老
|
2025-3-16 06:11:34
|
显示全部楼层
|
阅读模式
楼主
主题
1926
|
帖子
1926
|
积分
5778
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
电脑设置:
AMD Ryzen R7 6800H,16G内存,核显Radeon 680M,共享内存8G。
测试了direct-ml版,还是zluda版本速度快,大概是direct-ml版本的5倍以上。以下正文。
一,安装 AMD HIP SDK
HIP
HIP(Heterogeneous-Compute Interface for Portability)是AMD开发的一种GPU编程模子,旨在实现GPU代码的可移植性。
AI应用里,N卡几乎可以说一统江湖,N卡的GPU是运行在CUDA平台上的。
HIP 可以说是 CUDA API 的”盗窟克隆“版,几乎全盘拷贝 CUDA API,是 CUDA 的一个子集。
HIP可以运行在ROCm平台,也可以运行在CUDA平台(即可以运行在A卡,也可以运行在N卡上)。
ROCm介绍
ROCm是AMD的开源GPU计算软件堆栈,旨在提供一个可移植、高性能的GPU计算平台。
ROCm支持AMD的GPU和APU,以及x86和ARM架构的处理器,提供了与CUDA相似的编程模子,使得在AMD GPU上编写和运行GPU计算应用程序变得更加容易。
A卡上编程模子利用的是HIP或者OpenCL,而运行情况是ROCm
N卡上,编程模子是CUDA,运行情况也是CUDA
下载页面
https://www.amd.com/en/developer/resources/rocm-hub/hip-sdk.html
下载链接。要下载HIP 5.7.1版本,(安装界面看起来还是5.7)。只有这个版本的ZLUDA支持AMD Radeon 680M。780M的就可以用6.1了。
https://download.amd.com/developer/eula/rocm-hub/AMD-Software-PRO-Edition-23.Q4-Win10-Win11-For-HIP.exe
【ZLUDA】
注意,ZLUDA不完全支持pytorch,并且大概会有不稳固的现象。
这里是原版,3.7.2还是支持ROCm5的:
https://github.com/lshqqytiger/ZLUDA/releases
https://github.com/lshqqytiger/ZLUDA/releases/download/rel.4f12e8cfe9fa53bd29637c0bfe6fc88494d2b10f/ZLUDA-windows-amd64.zip
锐龙R7 6800H里内置的核显是AMD Radeon 680M,其架构是gfx1035(R5 6600H也是一样的),以是要下载这两个:
https://github.com/likelovewant/ROCmLibs-for-gfx1103-AMD780M-APU/releases/download/v0.5.7/rocblas.for.gfx1035.AMD.680M.rembrandt.V2.7z
https://github.com/likelovewant/ROCmLibs-for-gfx1103-AMD780M-APU/releases/download/v0.5.7/Rocm.rocblas.HIP5.7.0.V2.7z
此中第一个是只给AMD 680M用的,第二个是给多个AMD显卡用的。利用方法:
找到HIP的安装目录%HIP_PATH%\bin\rocblas,通常是C:\Program Files\AMD\ROCm\5.7\bin,利用压缩包里的rocblas.dll替换掉目录里的同名文件,然后修改同一目录下的library目录名为oldlibrary,再把压缩包里的library目录拷贝过来。如果大概的话,重新启动一下。
二,安装stable-diffusion + webui
【安装git】
git-scm.com/download/win
【安装Python】
www.python.org/downloads/
选择3.10.6~3.10.11版本,安装的时候,一定要勾选,设置情况变量。
【下载工程】
找一个空间充足大的盘,然后创建一个文件夹,比如git,打开cmd窗口
cd git
git clone https://github.com/lshqqytiger/stable-diffusion-webui-amdgpu amdgpu
或国内镜像:
git clone https://gitee.com/ranxv/stable-diffusion-webui-amdgpu.git amdgpu
安装完后,在文件夹amdgpu下,继续打开终端窗口,分别执行以下两个命令
git clone https://github.com/lshqqytiger/k-diffusion-directml repositories/k-diffusion
git clone https://github.com/stability-AI/stablediffusion repositoriesable-diffusion-stability-ai
【安装torch】
进入venv,安装
pip install torch==2.2.1+cu118 torchvision==0.17.1+cu118 --index-url https://download.pytorch.org/whl/cu118
或修改requirements,不要用默认的torch和torchvision,也不要用cuda12版本(cu121),会瓦解。
如果之后不警惕安装了torch的其它版本,也可以像上面一样换回来。
【修改设置】
找到stable-diffusion-webui-amdgpu\webui-user.bat文件,然后用记事本打开,添加属性:
set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.9,max_split_size_mb:512
set COMMANDLINE_ARGS=--precision full --disable-nan-check --upcast-sampling --opt-sub-quad-attention --medvram --use-zluda
【最后一步】
在stable-diffusion-webui-amdgpu文件夹下找到webui-user.bat文件,然后双击执行。
这里第一次运行要等zluda本身设置好久,而且没有进度条,以是别着急。即便
http://127.0.0.1:7860/
的页面打开后,还要等上10分钟(我这里加载模子就用了614秒),但只有第一遍慢,别着急。
等页面加载完,生个图试试吧!13.15it/s的速度,还可以吧?
这里面最关键的是ROCm能否识别GPU,因为官方驱动是不支持gfx1035的。看到下面的ROCm: agents=['gfx1035']就是乐成了。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
傲渊山岳
论坛元老
这个人很懒什么都没写!
楼主热帖
2022你不容错过的软件测试项目实战(we ...
SQL Server创建表
【微服务专题之】.Net6下集成微服务网 ...
Swift之Codable自定义解析将任意数据类 ...
MySQL max() min() 函数取值错误
ThinkPHP5 远程命令执行漏洞
K8S 性能优化 - K8S APIServer 调优 ...
kubernetes top查看内存CPU使用情况 ...
变量的定义和使用
前端的自我修养
标签云
渠道
国产数据库
集成商
AI
运维
CIO
存储
服务器
浏览过的版块
linux
数据仓库与分析
Java
快速回复
返回顶部
返回列表