本地私有化部署 DeepSeek & Dify ,告别“服务器繁忙,请稍后再试” ...

打印 上一主题 下一主题

主题 964|帖子 964|积分 2894

前言

DeepSeek 最近实在太火爆了,导致官网对话访问常常提示“服务器繁忙,请稍后再试”。 如下图所示:

关于什么是DeepSeek这里就不科普了,本身上网任意查一下就知道了。

   官网:https://www.deepseek.com/
  目前DeepSeek最大的问题是访问流量太大,导致用户体验不好,它的深度思索模型和联网本事没有充分发挥出来,不过我信任后续加大投入,这类问题应该能得到缓解。
本文重要面向想在本地部署私有模型的开发同学,打造专属私家AI助手。
前置准备

硬件情况


  • MacBook Pro(保举)
  • CPU >= 2 Core
  • 内存 >=16GB (保举)
笔者的电脑配置:

软件情况


  • Docker
  • Docker Compose
  • Ollama
  • Dify 社区版
  • ChatBox
注:这里只演示在MacBook的部署过程,Windows和Linux的同学请自行实践。
安装Ollama & 加载模型

什么是Ollama?

   Ollama 是一款跨平台的大模型管理客户端(MacOS、Windows、Linux),旨在无缝部署大型语言模型 (LLM),例如 DeepSeek、Llama、Mistral 等。Ollama 提供大模型一键部署,所有使用数据均会保存在本地机器内,提供全方面的数据隐私和安全性。
  

   官网:https://ollama.com/
  下载&加载本地模型

下载安装完ollama后,通过命令行可以查看对应的版本,并可以开始部署你想要的模型,这里选择的是deepseek-r1(默认是7b)。


   https://ollama.com/library/deepseek-r1
  1. ollama run deepseek-r1
复制代码
安装交互式UI:ChatBox

什么是ChatBox?

   Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先辈的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
  https://chatboxai.app/zh
  



  • 选择模型提供方:OLLAMA API
  • 填入API域名:http://127.0.0.1:11434
  • 选择模型:deepseek-r1:latest
验证本地模型对话


至此你已经可以通过chatbox来跟deepseek对话, 如果你只是想体验DeepSeek的功能, 下面关于Dify 大模型服务搭建可以略过。
Dify 搭建个人知识库

什么是Dify?

   Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你好坏技术职员,也能参与到 AI 应用的界说和数据运营过程中。
  

Docker Compose部署

  1. git clone https://github.com/langgenius/dify.git
  2. cd dify/docker
  3. cp .env.example .env
复制代码
  参考Docker Compose部署
https://docs.dify.ai/zh-hans/getting-started/install-self-hosted/docker-compose
  启动Docker容器

  1. docker compose up -d # 如果版本是Docker Compose V1,使用命令:docker-compose up -d
复制代码
假设遇到以下问题,可以在前面我们安装的Docker Desktop设置里面配置镜像:

Docker Engine 配置


  1. {
  2.   "builder": {
  3.     "gc": {
  4.       "defaultKeepStorage": "20GB",
  5.       "enabled": true
  6.     }
  7.   },
  8.   "experimental": false,
  9.   "registry-mirrors": [
  10.     "https://registry.dockermirror.com",
  11.     "https://docker-0.unsee.tech",
  12.     "https://docker.1panel.live",
  13.     "https://docker.imgdb.de",
  14.     "https://docker.m.daocloud.io",
  15.     "https://docker.tbedu.top",
  16.     "https://image.cloudlayer.icu",
  17.     "https://docker.melikeme.cn",
  18.     "https://cr.laoyou.ip-ddns.com",
  19.     "https://dockerpull.cn",
  20.     "https://hub.fast360.xyz",
  21.     "https://docker.hlmirror.com"
  22.   ]
  23. }
复制代码
国内署理常常失效或访问超时,这里可以多尝试几次,大概配置新的署理镜像地址。
   参考:目前国内可用Docker镜像源汇总(https://www.coderjia.cn/archives/dba3f94c-a021-468a-8ac6-e840f85867ea)
  镜像容器启动乐成如下所示:

Dify 平台添加Ollama模型

1、浏览器访问http://localhost/(默认 80 端口),进入Dify。
2、首次进入初始化设置账号暗码
3、点击 Dify 平台右上角头像-> 设置 -> 模型供应商,选择Ollama,点击“添加模型




  • 模型名称:deepseek-r1
  • 基础URL:http://host.docker.internal:11434

Dify 创建应用


Dify支持谈天助手、Agent、文本生成等基础应用,还支持进阶应用Chatflow和工作流。这里我们先简朴尝试创建谈天助手,填入根本信息,点击“创建”即可。
Dify 创建知识库

主页选择知识库 -> 创建知识库 -> 上传知识,搭建属于你本身的知识库。


使用知识库

至此,基于Dify搭建个人知识库已完成, 如此一来模型可以基于知识库输出更精确的的问答。
写在最后

本文实践了如何通过Ollama 本地部署DeepSeek R1 模型,并且尝试通过Dify 平台来创建个人知识库,进而搭建专属私家的AI 助手。笔者在实践的过程中也收获良多,打开了本身尝试AI工具的思绪。
DeepSeek 的爆火估计会让全球科技巨头重新审视“大力大肆(堆芯片,高成本)出古迹”的问题,一家名不见经传的小公司为什么能够突破创新,而且诞生在中国,岂非我们已经摆脱“追随者”的身份了?我信任这只是开始,AI军备比赛已经开始打响,作为普通人无法避开科技浪潮,如何不让本身随波逐流,或许我们需要躬身入局去体验,思索和探索。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

用多少眼泪才能让你相信

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表