滴水恩情 发表于 3 天前

【小白都能简单部署,本地私有化通过Linux在Docker部署deepseek-r1:7b详细再详细的步骤】

本次部署私有化Deepseek模型,重要使用rocky-Linux9.5版本的操作系统,通过部署Docker,在Docker中部署ollama,通过ollama拉取deepseek-r1:7b、Embedding模型,主机上安装Dify,通过Dify集成Deepseek模型、Embedding模型,并配置知识库,所有坑已踩完,直接一步到位!


媒介

DeepSeek 是一款开创性的开源大语言模型,凭借其先辈的算法架构和反思链能力,为 AI 对话交互带来了革新性的体验。通过私有化部署,可以充分掌控数据安全和使用安全。还可以机动调整部署方案,并实现便捷的自定义系统。
提示:以下是deepseek-r1对应GPU和显存,选择符合的版本
https://i-blog.csdnimg.cn/direct/dcd6bb9d288e45a08882ebc0569649ef.png
部署DeepSeek-r1:7b硬件要求:
       CPU:推荐8核或以上(需支持AVX指令集)
                  
       内存:至少16GB(建议32GB以上以提升性能)

       存储:50GB以上可用空间(模型文件约4.7GB)
      
       GPU(可选):若需加速推理,推荐NVIDIA显卡(显存≥8GB)并安装CUDA驱动
一、Rocky-Linux-9.5(或Centos)部署Docker

1.1、安装系统依赖

# 更新系统
sudo dnf update -y
# 安装Docker依赖
sudo dnf install -y yum-utils device-mapper-persistent-data lvm2
1.2、安装Docker

1.2.1 添加Docker官方堆栈

sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
1.2.2 安装Docker引擎

sudo dnf install docker-ce docker-ce-cli containerd.io -y
sudo systemctl start docker && sudo systemctl enable docker
1.2.3 配置用户权限

sudo usermod -aG docker $USER
newgrp docker# 刷新用户组
1.2.4 配置daemon.json加快器

#创建文件
mkdir -p /etc/docker

#创建docker加速器文件
vim /etc/docker/daemon.json

#复制配置内容
{
"registry-mirrors": [
   "https://dockerpull.org",
    "https://docker.1panel.dev",
    "https://docker.foreverlink.love",
    "https://docker.fxxk.dedyn.io",
    "https://docker.xn--6oq72ry9d5zx.cn",
    "https://docker.zhai.cm",
    "https://docker.5z5f.com",
    "https://a.ussh.net",
    "https://docker.cloudlayer.icu",
    "https://hub.littlediary.cn",
    "https://hub.crdz.gq",
    "https://docker.unsee.tech",
    "https://docker.kejilion.pro",
    "https://registry.dockermirror.com",
    "https://hub.rat.dev",
    "https://dhub.kubesre.xyz",
    "https://docker.nastool.de",
    "https://docker.udayun.com",
    "https://docker.rainbond.cc",
    "https://hub.geekery.cn",
    "https://docker.1panelproxy.com",
    "https://atomhub.openatom.cn",
    "https://docker.m.daocloud.io",
    "https://docker.1ms.run",
    "https://docker.linkedbus.com"
]
}

#加载文件生效
systemctl daemon-reload
systemctl restart docker
1.2.5 检察Docker状态及版本

https://i-blog.csdnimg.cn/direct/3134bbb5823c4fc5ba7c324dea63ab33.png
一、Ubuntu22.04.5部署Docker

1.1、更新系统

# 更新系统
sudo apt update
1.2、安装vim、curl

sudo apt install git vim curl
1.3、安装Docker

sudo apt install docker.io
1.4、启动Docker服务

sudo systemctl start docker
sudo systemctl enable docker
1.5、检察Docker版本以及配置daemon.json容器加快器参考上面。

二、部署Ollama与DeepSeek-R1-7b

2.1、拉取ollama镜像

docker pull ollama/ollama
2.2、创建ollama服务并运行(基于CPU版本)

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

2.3、创建ollama服务并运行(基于GPU版本)

docker run -d --gpus=all -v D:\ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

2.4、检察ollama

https://i-blog.csdnimg.cn/direct/58abee6b66804f52b4f270ad56b0c1ae.png
2.5、ollama拉取deepseek-r1:7b模型

根据自己的硬件条件选择对应的模型版本,拉取deepseek的时候,到后面拉取速率很慢的话,可以直接CTRL + C中止拉取,然后再重新实行拉取下令,会自动续上原拉取的进度,而且速率会提升。
#进入ollama容器
docker exec -it ollama /bin/bash
#ollama容器中拉取并运行deepseek模型
ollama run deepseek-r1:7b
#ollama容器中拉取Embedding模型
ollama pull bge-m3
#ollama容器中查看拉取的模型
ollama list
https://i-blog.csdnimg.cn/direct/07fba3b5821c451891ffa4f1c0f134c0.png
https://i-blog.csdnimg.cn/direct/3b7a2d2ad5344a079296e7ed6b8c1d2d.png
三、开放防火墙策略或者直接关闭

3.1、防火墙放通ollama端口

#开放ollama端口
firewall-cmd --zone=public --add-port=11434/tcp --permanent
firewall-cmd --reload
3.2、Centos防火墙开通或关闭

#防火墙命令(Centos、Rocky)
systemctl start firewalld
systemctl stop firewalld
3.3 Ubuntu防火墙开通或关闭

#防火墙命令(Ubuntu)
sudo ufw enable
sudo ufw default deny
sudo ufw disable
四、部署Dify并应用DeepSeek模型

4.1、下载并配置Dify

git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up -d
#查看容器状态
docker compose ps
https://i-blog.csdnimg.cn/direct/a378e580f65244a28203dee165072c42.png
4.2、设置账号并登录Dify

Dify 社区版默认使用 80 端口,点击链接 http://your_server_ip 即可访问你的私有化 Dify 平台
https://i-blog.csdnimg.cn/direct/4b5ffed11cca4590b5478dbd12268ad3.png
https://i-blog.csdnimg.cn/direct/eb3afa4897904d1384fabeb9f66fb99e.png
4.3、Dify集成DeepSeek-r1

https://i-blog.csdnimg.cn/direct/fc33eed37bc44da3948bcaa8004df5dd.png
4.4、安装ollama并添加模型

https://i-blog.csdnimg.cn/direct/721ae1728f494cc8a30df5cdf5b97a3c.png
4.5、ollama集成Deepseek模型

模型供应商内的 DeepSeek 对应在线 API 服务;本地部署的 DeepSeek 模型对应 Ollama 客户端。请确保本地的 DeepSeek 模型已成功部署由 Ollama 客户端部署
选择 LLM 模型类型。模型名称,填写具体部署的模型型号。上文部署的模型型号为 deepseek-r1 7b,因此填写 deepseek-r1:7b 基础 URL,填写 Ollama 客户端的运行地点,通常为 http://your_server_ip:11434。如遇毗连题目,请参考常见题目。别的选项保持默认值。根据 DeepSeek 模型阐明,最大天生长度为 32,768 Tokens
https://i-blog.csdnimg.cn/direct/34ee8bc4bb874bb6a306e66bdfd9b661.png
4.6、ollama集成bge-m3模型

选择Text Embedding类型,自定义名称,基础URl输入:http://your_server_ip:11434
https://i-blog.csdnimg.cn/direct/eaa86305b4c04553a155b0cac5be856a.png
4.7、检察ollama集成模型

https://i-blog.csdnimg.cn/direct/87dcbe2fc5534ff2a87a8445f88e89c8.png
4.8、首页创建空缺应用

https://i-blog.csdnimg.cn/direct/8f1b4289c5a4419e8ea98c8c4b1bb177.png
https://i-blog.csdnimg.cn/direct/f2858cc347c84d80b9dd245948599f28.png
4.9、右上侧会自动选择部署好的AI模型

https://i-blog.csdnimg.cn/direct/de650d66aa7b4f0e92fc7f29da800d33.png
4.10、AI正常对话

https://i-blog.csdnimg.cn/direct/b6f5870e85434bb2a7efb3a440b3290c.png
4.11、创建进阶AI(Chatflow)

Chatflow / Workflow 应用可以资助你搭建功能更加复杂的 AI 应用,比方具备文件识别、图像识别、语音识别等能力
轻点 Dify 平台首页左侧的"创建空缺应用",选择"Chatflow" 类型应用并进行简单的命名。
https://i-blog.csdnimg.cn/direct/6ccc0d659f294bd689f8a187051787eb.png
添加 LLM 节点,选择 Ollama 框架内的 deepseek-r1:7b 模型,并在系统提示词内添加 {{#sys.query#}} 变量以毗连起始节点。如遇 API 非常,可以通过负载均衡功能或非常处理节点进行处理。
https://i-blog.csdnimg.cn/direct/04b846ff32e04426b1c0bb568beca39a.png
添加竣事节点完成配置。可以点击预览并在对话框中输入内容以进行测试。天生答复后意味着 AI 应用的搭建已完成。
https://i-blog.csdnimg.cn/direct/67e5f973688e45e88de82d00ddaaa967.png
末了点击发布
https://i-blog.csdnimg.cn/direct/770f22f0081b4f73941ea2d9e534edd3.png
4.12、首页表现创建好的AI助理

https://i-blog.csdnimg.cn/direct/fcacae17176f4924915a0d25b3cc89e7.png
五、部署知识库

5.1、点击创建知识库

https://i-blog.csdnimg.cn/direct/7256dde3456f4e308efbd00e04508619.png
5.2、导入文本数据源

https://i-blog.csdnimg.cn/direct/52e53b2a251449858ec231c166994be4.png
5.3、配置数据预处理

索引方式选择高质量,Embedding 模型会自动选择bge-m3,其他配置可以根据自己需求选择
https://i-blog.csdnimg.cn/direct/705a5043f6ec478484ccd98c46204ba0.png
5.4、表现处理完成

https://i-blog.csdnimg.cn/direct/fc50fe5b737944ba993304584ff86cfb.png
5.5、首页选择创建好的AI管家

https://i-blog.csdnimg.cn/direct/c8b083cc94b64d82843b9bb00d2cf1d4.png
5.6、配置知识库的数据源

https://i-blog.csdnimg.cn/direct/01d4370abdd74f32ba706bda380440d4.png
5.7、点击导入文本并添加

https://i-blog.csdnimg.cn/direct/0da77ddefa1649329444898bb8f32819.png
5.8、点击重新开始

https://i-blog.csdnimg.cn/direct/c7defbf83a244332ae90d1b7e78c8c30.png
5.9、知识库AI管家配置成功

https://i-blog.csdnimg.cn/direct/44b0e97d8ddc4c8d83b709bae38b4d30.png
总结

提示:知识库管家大概会存在乱答复的题目,需要更进一步的去调整配置参数
本文共创建了两个AI助理,“AI管家”重要用于知识库方面;“超等助理”重要用于AI涉及的所有领域,解决个人需求题目,资助人们在生活中更加简便处理事件。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 【小白都能简单部署,本地私有化通过Linux在Docker部署deepseek-r1:7b详细再详细的步骤】