论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
人工智能
›
人工智能
›
如安在Linux服务器上安装Stable Diffusion WebUI ...
如安在Linux服务器上安装Stable Diffusion WebUI
自由的羽毛
论坛元老
|
2024-8-16 21:31:49
|
显示全部楼层
|
阅读模式
楼主
主题
2083
|
帖子
2083
|
积分
6249
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
一、前提条件
1、硬件条件
GPU
:显存肯定越大越好,8G以上显存,建议16G以上,24g玩的好,32g可以开目前的最大。
内存
:16G以上,建议32G,也是越大越好。
硬盘
:利用固态硬盘,剩余空间200G以上。
2、软件条件
最好提前装好anaconda、Git、wget这些工具。
既然已经可以本身摆设Stable Diffusion的地步了,服务器上最最少的情况已经搭建好了。
二、安装步调
1、创建Python虚拟情况
我目前摆设的是v1.9.3版本的Stable Diffusion,必要3.10.6版本的Python,最好按照官方的指示操作,我的anaconda的版本是3.7,在后续安装requirements.txt时会发生很多多少包无法安装的题目,以是可以在安装anaconda时就用3.10版本的,或者直接像下边在创建情况时指定。
# 创建环境
conda create -n sd python=3.10.6
#激活环境
conda activate sd
复制代码
2、安装须要的软件和库
在服务器上安装须要的工具
sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0
复制代码
可以自行查看本身的服务器上已经安装了哪些,如果已经安装了就可以不装。比如已经安装了anaconda,那么python3,python3-venv就可以不必要安装了。
如果非root用户,也是可以安装上述工具的,只是必要一点额外的操作,详细看:
https://blog.csdn.net/xfysq_/article/details/138339868?spm=1001.2014.3001.5501
3、克隆Stable Diffusion WebUI仓库
利用 Git 克隆 AUTOMATIC1111 的 stable-diffusion-webui 仓库:
在服务器中进入你想要放置拉取的仓库的目次,
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
复制代码
4、安装依赖
有的教程会让你这两个依赖文件都安装一遍,实在这两个依赖文件是一样的,只不过requirements_versions.txt严酷限定了版本,requirements.txt对版本要求比力宽松,我也是都安装了一遍。
pip install -r requirements_versions.txt
pip install -r requirements.txt
复制代码
在这里如果没有科学上网,那建议大家一定要换源,否则会特别慢,可以参考:
https://blog.csdn.net/xfysq_/article/details/107090640
在安装依赖时,发现了一个题目,我在服务器上的个人账号目次下安装的是cuda11.3,但是Stable Diffusion安装依赖时却会安装12.1版本的cuda,而且终极Stable Diffusion也可以正常运行,这是因为cuda11.3算是你的系统cuda版本,而Python 包(如 PyTorch、TensorFlow 等)通常以预编译的形式提供,此中可能包罗了特定版本的 CUDA 库。当利用 pip 安装这些包时,它们会包罗与该版本捆绑的 CUDA 版本,这与在系统上安装的 CUDA 版本无关。
5、运行
一旦所有依赖项安装完毕,就可以启动 Web UI:
python launch.py
复制代码
或
./webui.sh
复制代码
都可以。
但在运行时,由于之前换过源,不是从anaconda的官方下载的包,以是可能在这又会重新安装一遍依赖,而且由于是从官方源下载,会特别慢,像卡住了一样。
因为这里是在脚本内部,无法像pip安装那样换源,因此,最好在这里提前将pip源永久换为其他源。也可以参考:
https://blog.csdn.net/xfysq_/article/details/107090640
在这里通常会遇到的两个题目:
(1)下载Downloading: "https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors"模型时,由于huggingface目前国内限定直接访问,因此模型无法下载,这是可以本身在本地利用科学上网下载之后,上传到/stable-diffusion-webui/models/Stable-diffusion/目次中。
(2)有了模型之后,仍然会提示OSError: Can’t load tokenizer for ‘openai/clip-vit-large-patch14’.题目,这也是因为huggingface目前国内限定直接访问,因此模型无法下载,可以到https://huggingface.co/models这个网站下载好openai/clip-vit-large-patch14之后,放到/stable-diffusion-webui/目次下,这也是openai/clip-vit-large-patch14的默认目次,不必要到/stable-diffusion-web ui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py里去修改openai/clip-vit-large-patch14的加载路径。
6、访问WEB UI
打开Web浏览器,输入http://127.0.0.1:7860来访问Web UI。
因为是在服务器上摆设的,以是有很大可能你在本地浏览器输入上述网址是打不开的,这里必要配置 SSH 隧道,可以参考:
https://blog.csdn.net/xfysq_/article/details/138340373?spm=1001.2014.3001.5501
然后你就可以利用啦。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
自由的羽毛
论坛元老
这个人很懒什么都没写!
楼主热帖
JDBC p2 JDBC API
【MySQL】MySQL的安装、卸载、配置、登 ...
【python】标准库(第四讲)
iOS 组件化及二进制化的探索 ...
线程本地存储 ThreadLocal
Vue使用ajax(axios)请求后台数据 ...
.MD语法入门,教你写好readme文档 ...
Linux【实操篇】—— Shell函数、Shell ...
go学习笔记(一)
我眼中的大数据(二)——HDFS ...
标签云
渠道
国产数据库
集成商
AI
运维
CIO
存储
服务器
浏览过的版块
Java
虚拟化与私有云
快速回复
返回顶部
返回列表