本次部署私有化Deepseek模型,重要使用rocky-Linux9.5版本的操作系统,通过部署Docker,在Docker中部署ollama,通过ollama拉取deepseek-r1:7b、Embedding模型,主机上安装Dify,通过Dify集成Deepseek模型、Embedding模型,并配置知识库,所有坑已踩完,直接一步到位!
媒介
DeepSeek 是一款开创性的开源大语言模型,凭借其先辈的算法架构和反思链能力,为 AI 对话交互带来了革新性的体验。通过私有化部署,可以充分掌控数据安全和使用安全。还可以机动调整部署方案,并实现便捷的自定义系统。
提示:以下是deepseek-r1对应GPU和显存,选择符合的版本
部署DeepSeek-r1:7b硬件要求:
- CPU:推荐8核或以上(需支持AVX指令集)
-
- 内存:至少16GB(建议32GB以上以提升性能)
- 存储:50GB以上可用空间(模型文件约4.7GB)
-
- GPU(可选):若需加速推理,推荐NVIDIA显卡(显存≥8GB)并安装CUDA驱动
复制代码 一、Rocky-Linux-9.5(或Centos)部署Docker
1.1、安装系统依赖
- # 更新系统
- sudo dnf update -y
- # 安装Docker依赖
- sudo dnf install -y yum-utils device-mapper-persistent-data lvm2
复制代码 1.2、安装Docker
1.2.1 添加Docker官方堆栈
- sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
复制代码 1.2.2 安装Docker引擎
- sudo dnf install docker-ce docker-ce-cli containerd.io -y
- sudo systemctl start docker && sudo systemctl enable docker
复制代码 1.2.3 配置用户权限
- sudo usermod -aG docker $USER
- newgrp docker # 刷新用户组
复制代码 1.2.4 配置daemon.json加快器
- #创建文件
- mkdir -p /etc/docker
- #创建docker加速器文件
- vim /etc/docker/daemon.json
- #复制配置内容
- {
- "registry-mirrors": [
- "https://dockerpull.org",
- "https://docker.1panel.dev",
- "https://docker.foreverlink.love",
- "https://docker.fxxk.dedyn.io",
- "https://docker.xn--6oq72ry9d5zx.cn",
- "https://docker.zhai.cm",
- "https://docker.5z5f.com",
- "https://a.ussh.net",
- "https://docker.cloudlayer.icu",
- "https://hub.littlediary.cn",
- "https://hub.crdz.gq",
- "https://docker.unsee.tech",
- "https://docker.kejilion.pro",
- "https://registry.dockermirror.com",
- "https://hub.rat.dev",
- "https://dhub.kubesre.xyz",
- "https://docker.nastool.de",
- "https://docker.udayun.com",
- "https://docker.rainbond.cc",
- "https://hub.geekery.cn",
- "https://docker.1panelproxy.com",
- "https://atomhub.openatom.cn",
- "https://docker.m.daocloud.io",
- "https://docker.1ms.run",
- "https://docker.linkedbus.com"
- ]
- }
- #加载文件生效
- systemctl daemon-reload
- systemctl restart docker
复制代码 1.2.5 检察Docker状态及版本
一、Ubuntu22.04.5部署Docker
1.1、更新系统
1.2、安装vim、curl
- sudo apt install git vim curl
复制代码 1.3、安装Docker
- sudo apt install docker.io
复制代码 1.4、启动Docker服务
- sudo systemctl start docker
- sudo systemctl enable docker
复制代码 1.5、检察Docker版本以及配置daemon.json容器加快器参考上面。
二、部署Ollama与DeepSeek-R1-7b
2.1、拉取ollama镜像
- docker pull ollama/ollama
复制代码 2.2、创建ollama服务并运行(基于CPU版本)
- docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
复制代码 2.3、创建ollama服务并运行(基于GPU版本)
- docker run -d --gpus=all -v D:\ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
复制代码 2.4、检察ollama
2.5、ollama拉取deepseek-r1:7b模型
根据自己的硬件条件选择对应的模型版本,拉取deepseek的时候,到后面拉取速率很慢的话,可以直接CTRL + C中止拉取,然后再重新实行拉取下令,会自动续上原拉取的进度,而且速率会提升。
- #进入ollama容器
- docker exec -it ollama /bin/bash
- #ollama容器中拉取并运行deepseek模型
- ollama run deepseek-r1:7b
- #ollama容器中拉取Embedding模型
- ollama pull bge-m3
- #ollama容器中查看拉取的模型
- ollama list
复制代码
三、开放防火墙策略或者直接关闭
3.1、防火墙放通ollama端口
- #开放ollama端口
- firewall-cmd --zone=public --add-port=11434/tcp --permanent
- firewall-cmd --reload
复制代码 3.2、Centos防火墙开通或关闭
- #防火墙命令(Centos、Rocky)
- systemctl start firewalld
- systemctl stop firewalld
复制代码 3.3 Ubuntu防火墙开通或关闭
- #防火墙命令(Ubuntu)
- sudo ufw enable
- sudo ufw default deny
- sudo ufw disable
复制代码 四、部署Dify并应用DeepSeek模型
4.1、下载并配置Dify
- git clone https://github.com/langgenius/dify.git
- cd dify/docker
- cp .env.example .env
- docker compose up -d
- #查看容器状态
- docker compose ps
复制代码
4.2、设置账号并登录Dify
Dify 社区版默认使用 80 端口,点击链接 http://your_server_ip 即可访问你的私有化 Dify 平台
4.3、Dify集成DeepSeek-r1
4.4、安装ollama并添加模型
4.5、ollama集成Deepseek模型
模型供应商内的 DeepSeek 对应在线 API 服务;本地部署的 DeepSeek 模型对应 Ollama 客户端。请确保本地的 DeepSeek 模型已成功部署由 Ollama 客户端部署
选择 LLM 模型类型。模型名称,填写具体部署的模型型号。上文部署的模型型号为 deepseek-r1 7b,因此填写 deepseek-r1:7b 基础 URL,填写 Ollama 客户端的运行地点,通常为 http://your_server_ip:11434。如遇毗连题目,请参考常见题目。别的选项保持默认值。根据 DeepSeek 模型阐明,最大天生长度为 32,768 Tokens
4.6、ollama集成bge-m3模型
选择Text Embedding类型,自定义名称,基础URl输入:http://your_server_ip:11434
4.7、检察ollama集成模型
4.8、首页创建空缺应用
4.9、右上侧会自动选择部署好的AI模型
4.10、AI正常对话
4.11、创建进阶AI(Chatflow)
Chatflow / Workflow 应用可以资助你搭建功能更加复杂的 AI 应用,比方具备文件识别、图像识别、语音识别等能力
轻点 Dify 平台首页左侧的"创建空缺应用",选择"Chatflow" 类型应用并进行简单的命名。
添加 LLM 节点,选择 Ollama 框架内的 deepseek-r1:7b 模型,并在系统提示词内添加 {{#sys.query#}} 变量以毗连起始节点。如遇 API 非常,可以通过负载均衡功能或非常处理节点进行处理。
添加竣事节点完成配置。可以点击预览并在对话框中输入内容以进行测试。天生答复后意味着 AI 应用的搭建已完成。
末了点击发布
4.12、首页表现创建好的AI助理
五、部署知识库
5.1、点击创建知识库
5.2、导入文本数据源
5.3、配置数据预处理
索引方式选择高质量,Embedding 模型会自动选择bge-m3,其他配置可以根据自己需求选择
5.4、表现处理完成
5.5、首页选择创建好的AI管家
5.6、配置知识库的数据源
5.7、点击导入文本并添加
5.8、点击重新开始
5.9、知识库AI管家配置成功
总结
提示:知识库管家大概会存在乱答复的题目,需要更进一步的去调整配置参数
本文共创建了两个AI助理,“AI管家”重要用于知识库方面;“超等助理”重要用于AI涉及的所有领域,解决个人需求题目,资助人们在生活中更加简便处理事件。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |