【小白都能简单部署,本地私有化通过Linux在Docker部署deepseek-r1:7b详细 ...

打印 上一主题 下一主题

主题 1644|帖子 1644|积分 4932


本次部署私有化Deepseek模型,重要使用rocky-Linux9.5版本的操作系统,通过部署Docker,在Docker中部署ollama,通过ollama拉取deepseek-r1:7b、Embedding模型,主机上安装Dify,通过Dify集成Deepseek模型、Embedding模型,并配置知识库,所有坑已踩完,直接一步到位!

  

媒介

DeepSeek 是一款开创性的开源大语言模型,凭借其先辈的算法架构和反思链能力,为 AI 对话交互带来了革新性的体验。通过私有化部署,可以充分掌控数据安全和使用安全。还可以机动调整部署方案,并实现便捷的自定义系统。

提示:以下是deepseek-r1对应GPU和显存,选择符合的版本

部署DeepSeek-r1:7b硬件要求:
  1.        CPU:推荐8核或以上(需支持AVX指令集)
  2.                   
  3.        内存:至少16GB(建议32GB以上以提升性能)
  4.        存储:50GB以上可用空间(模型文件约4.7GB)
  5.       
  6.        GPU(可选):若需加速推理,推荐NVIDIA显卡(显存≥8GB)并安装CUDA驱动
复制代码
一、Rocky-Linux-9.5(或Centos)部署Docker

1.1、安装系统依赖

  1. # 更新系统
  2. sudo dnf update -y
  3. # 安装Docker依赖
  4. sudo dnf install -y yum-utils device-mapper-persistent-data lvm2
复制代码
1.2、安装Docker

1.2.1 添加Docker官方堆栈

  1. sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
复制代码
1.2.2 安装Docker引擎

  1. sudo dnf install docker-ce docker-ce-cli containerd.io -y
  2. sudo systemctl start docker && sudo systemctl enable docker
复制代码
1.2.3 配置用户权限

  1. sudo usermod -aG docker $USER
  2. newgrp docker  # 刷新用户组
复制代码
1.2.4 配置daemon.json加快器

  1. #创建文件
  2. mkdir -p /etc/docker
  3. #创建docker加速器文件
  4. vim /etc/docker/daemon.json
  5. #复制配置内容
  6. {
  7.   "registry-mirrors": [
  8.    "https://dockerpull.org",
  9.     "https://docker.1panel.dev",
  10.     "https://docker.foreverlink.love",
  11.     "https://docker.fxxk.dedyn.io",
  12.     "https://docker.xn--6oq72ry9d5zx.cn",
  13.     "https://docker.zhai.cm",
  14.     "https://docker.5z5f.com",
  15.     "https://a.ussh.net",
  16.     "https://docker.cloudlayer.icu",
  17.     "https://hub.littlediary.cn",
  18.     "https://hub.crdz.gq",
  19.     "https://docker.unsee.tech",
  20.     "https://docker.kejilion.pro",
  21.     "https://registry.dockermirror.com",
  22.     "https://hub.rat.dev",
  23.     "https://dhub.kubesre.xyz",
  24.     "https://docker.nastool.de",
  25.     "https://docker.udayun.com",
  26.     "https://docker.rainbond.cc",
  27.     "https://hub.geekery.cn",
  28.     "https://docker.1panelproxy.com",
  29.     "https://atomhub.openatom.cn",
  30.     "https://docker.m.daocloud.io",
  31.     "https://docker.1ms.run",
  32.     "https://docker.linkedbus.com"
  33.   ]
  34. }
  35. #加载文件生效
  36. systemctl daemon-reload
  37. systemctl restart docker
复制代码
1.2.5 检察Docker状态及版本


一、Ubuntu22.04.5部署Docker

1.1、更新系统

  1. # 更新系统
  2. sudo apt update
复制代码
1.2、安装vim、curl

  1. sudo apt install git vim curl
复制代码
1.3、安装Docker

  1. sudo apt install docker.io
复制代码
1.4、启动Docker服务

  1. sudo systemctl start docker
  2. sudo systemctl enable docker
复制代码
1.5、检察Docker版本以及配置daemon.json容器加快器参考上面。

二、部署Ollama与DeepSeek-R1-7b

2.1、拉取ollama镜像

  1. docker pull ollama/ollama
复制代码
2.2、创建ollama服务并运行(基于CPU版本)

  1. docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
复制代码
2.3、创建ollama服务并运行(基于GPU版本)

  1. docker run -d --gpus=all -v D:\ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
复制代码
2.4、检察ollama


2.5、ollama拉取deepseek-r1:7b模型

  根据自己的硬件条件选择对应的模型版本,拉取deepseek的时候,到后面拉取速率很慢的话,可以直接CTRL + C中止拉取,然后再重新实行拉取下令,会自动续上原拉取的进度,而且速率会提升。
  1. #进入ollama容器
  2. docker exec -it ollama /bin/bash
  3. #ollama容器中拉取并运行deepseek模型
  4. ollama run deepseek-r1:7b
  5. #ollama容器中拉取Embedding模型
  6. ollama pull bge-m3
  7. #ollama容器中查看拉取的模型
  8. ollama list
复制代码


三、开放防火墙策略或者直接关闭

3.1、防火墙放通ollama端口

  1. #开放ollama端口
  2. firewall-cmd --zone=public --add-port=11434/tcp --permanent
  3. firewall-cmd --reload
复制代码
3.2、Centos防火墙开通或关闭

  1. #防火墙命令(Centos、Rocky)
  2. systemctl start firewalld
  3. systemctl stop firewalld
复制代码
3.3 Ubuntu防火墙开通或关闭

  1. #防火墙命令(Ubuntu)
  2. sudo ufw enable
  3. sudo ufw default deny
  4. sudo ufw disable
复制代码
四、部署Dify并应用DeepSeek模型

4.1、下载并配置Dify

  1. git clone https://github.com/langgenius/dify.git
  2. cd dify/docker
  3. cp .env.example .env
  4. docker compose up -d
  5. #查看容器状态
  6. docker compose ps
复制代码

4.2、设置账号并登录Dify

Dify 社区版默认使用 80 端口,点击链接 http://your_server_ip 即可访问你的私有化 Dify 平台


4.3、Dify集成DeepSeek-r1


4.4、安装ollama并添加模型


4.5、ollama集成Deepseek模型

模型供应商内的 DeepSeek 对应在线 API 服务;本地部署的 DeepSeek 模型对应 Ollama 客户端。请确保本地的 DeepSeek 模型已成功部署由 Ollama 客户端部署
选择 LLM 模型类型。模型名称,填写具体部署的模型型号。上文部署的模型型号为 deepseek-r1 7b,因此填写 deepseek-r1:7b 基础 URL,填写 Ollama 客户端的运行地点,通常为 http://your_server_ip:11434。如遇毗连题目,请参考常见题目。别的选项保持默认值。根据 DeepSeek 模型阐明,最大天生长度为 32,768 Tokens

4.6、ollama集成bge-m3模型

选择Text Embedding类型,自定义名称,基础URl输入:http://your_server_ip:11434

4.7、检察ollama集成模型


4.8、首页创建空缺应用



4.9、右上侧会自动选择部署好的AI模型


4.10、AI正常对话


4.11、创建进阶AI(Chatflow)

Chatflow / Workflow 应用可以资助你搭建功能更加复杂的 AI 应用,比方具备文件识别、图像识别、语音识别等能力
轻点 Dify 平台首页左侧的"创建空缺应用",选择"Chatflow" 类型应用并进行简单的命名。

添加 LLM 节点,选择 Ollama 框架内的 deepseek-r1:7b 模型,并在系统提示词内添加 {{#sys.query#}} 变量以毗连起始节点。如遇 API 非常,可以通过负载均衡功能或非常处理节点进行处理。

添加竣事节点完成配置。可以点击预览并在对话框中输入内容以进行测试。天生答复后意味着 AI 应用的搭建已完成。

末了点击发布

4.12、首页表现创建好的AI助理


五、部署知识库

5.1、点击创建知识库


5.2、导入文本数据源


5.3、配置数据预处理

索引方式选择高质量,Embedding 模型会自动选择bge-m3,其他配置可以根据自己需求选择

5.4、表现处理完成


5.5、首页选择创建好的AI管家


5.6、配置知识库的数据源


5.7、点击导入文本并添加


5.8、点击重新开始


5.9、知识库AI管家配置成功


总结

提示:知识库管家大概会存在乱答复的题目,需要更进一步的去调整配置参数
本文共创建了两个AI助理,“AI管家”重要用于知识库方面;“超等助理”重要用于AI涉及的所有领域,解决个人需求题目,资助人们在生活中更加简便处理事件。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

滴水恩情

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表