Deepseek 服务器挤爆了?别急,这一本地部署 “秘籍” 让你轻松应对!(文末 ...

打印 上一主题 下一主题

主题 952|帖子 952|积分 2856

DeepSeek 介绍

DeepSeek 一共开放了两个模型,DeepSeek V3和DeepSeek R1,这俩是差别的模型。


  • V3 根本上可以处置惩罚绝大多数种类的任务,
  • R1 在必要逻辑推理的任务上更擅长,比如写代码,做数学题。
维度DeepSeek V3DeepSeek-R1架构MoE(专家模型)专家模型优势场景通用任务、多语言、高性价比垂直范畴(代码/数学)、逻辑推理本钱推理本钱低可能针对质量优化,本钱稍高适用性企业级云服务、多任务场景专业范畴应用、轻量级部署 接下来的内容是3种DeepSeek的使用方法,分别是:

  • 【最强盛】官方使用方法:满血版的 DeepSeek V3 和 R1
  • 【最保险】本地部署:非满血版的 DeepSeek V3 和 R1
  • 【最极客】 API + 客户端:次满血版的DeepSeek V3和R1
官方网页版

访问链接:https://chat.deepseek.com/,可以在任何设备和欣赏器打开,手机和电脑等都没有问题。
之前从未登录过的用户必要进行登岸,使用手机号、微信或者邮箱登岸即可。
然后点击“开始对话”就可以使用。
不外必要注意一点儿,那就是怎样选择 V3 还是 R1 模型,可以参考下图。

但是 DeepSeek 实在是太火热了,导致截至今天都太多人反问,根本上只能每天问它一句,如果再进行上下文追问,就会服务器繁忙,请稍微再试了。

联网搜索我在 11 月份是可以使用的,同时会在右边栏显示它搜索的网页(但是缺点是没法像 Kimi 一样天生引用)。但是过年期间,由于大量的 IP 攻击,官方取消了联网搜索功能。
截至 2025.02.08,联网搜索又能规复使用了。
本地部署

这是最保险的一种方法,由于它的意思是「在本身的电脑上装一个 DeepSeek」,这意味着只要你的电脑没有坏,就可以不停的使用 DeepSeek。
但这种方法有一个缺点,那就是一样寻常来说个人电脑的性能有限,所以只能装「蒸馏版」的DeepSeek,这个版本的 DeepSeek 必要占用的电脑资源要比满血版少的多,同样性能也差不少。
这种方式适合的人群为:

  • 必要包管数据安全,不能联网
  • 对于性能的忍受度较高
  • 只必要普通的AI功能。
如果你符合上述描述,那你可以选择本地部署,方法其实非常简朴。
Ollama 介绍

Ollama 是一个集成主流 AI 大模型的网站,开源且使用免费,图标如下:

官网: https://ollama.com/
GitHub地址: https://github.com/ollama/ollama, 目前 stars 数 122.2k
作用: 使用 Llama 3.3、DeepSeek-R1、Phi-4、Gemma 2 和其他大型语言模型启动和运行。
特点:


  • 轻量级,可本地运行各种开源的大语言模型
  • 简朴易用,一键部署(一行命令就可以下载热门模型,运行即用)
  • 多客户端,支持 Mac、Windows、Linux 各种系统
  • 完全本地运行,保护数据隐私
  • 支持自界说模型和参数调整
  • 优化的模型运行效率,支持 GPU 加快,本地相应速度快
  • 适合个人开辟,小型团队使用
总而言之一句话:Ollama 简直是个大杀器,革命性的开源工具,帮助用户能够在个人电脑运行强盛的、吃配置的大语言模型。
典型使用场景


  • 个人 AI 助手(使用免费)
  • 代码开辟助手
  • 文本创作和翻译
  • 本地知识库问答
下载 Ollama

通过官网下载对应的客户端,如果官网下载链接繁忙,去 GitHub 的 Release 下载对应的版本,这里不做介绍了。
按照乐成,以管理员身份打开命令行工具,乐成如下:

还能看输入 ollama -v查看当前的版本号:

下载完成后可以关注下面几个文件夹:


  • C:\Users\{name}\.ollama,这个文件路径存放模型
  • C:\Users\{name}\AppData\Local\Ollama,这个文件路径存放日志
  • C:\Users\{name}\AppData\Local\Programs\Ollama,这个就是 Ollama 主程序默认安装位置
Deepseek-R1 模型下载

R1 提供了从 1.5B 到 671B 差别大小的模型,而 V3 只有671B,而 671B 必要的电脑性能单个电脑几乎不可能满意,所以建议大家可以直接安装并且部署 R1 模型。
Deepseek 模型库地址:https://ollama.com/library/deepseek-r1:1.5b

可以看到 R1 有7个版本,此中最小的是 1.5b ,它必要的内存大小为 1.1GB ,这个要求几乎全部的电脑都可以满意,可以作为实验。
我的电脑显卡不太高,直接在命令行输入:ollama run deepseek-r1:1.5b

安装速度跟网速有关,1.5b 的模板大概在 1.1 GB 左右,安装乐成如下:

Ps: 如果你的配置够高,可以选择更大的模型,如图:

安装乐成,就可以在命令行进行问答了,比如下图:

速度还挺快,完全不消担心服务器繁忙了。
本地服务是可以了,但是命令行不敷好看,那么怎样可以更优雅的使用呢,这个时候就必要网页或者客户端了。
   动手强的大佬可以本身开辟,术业有专攻,我这种后端程序员只能合理去找工具了。
  Chatbox AI

Chatbox AI:办公学习好助手。Chatbox AI 是一款 AI 客户端应用和智能助手,支持浩繁先辈的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
官网链接:https://chatboxai.app/zh

特点:不但支持网页版,还支持多客户端,Mac、Windows、Linux、Android、IOS 系统。
ChatBox AI Windows 安装

下载完 Windows 安装包,并打开之后,点击 Use My Own API Key/Local Model,如图:

选择 Ollama API:

在模型的下拉框,选择我们的模型:

点击生存。
在 Chatbox 界面下,测试 DeepSeek-R1 模型


然后将这段翻译成英文:
How do you self-study programming?
本地模型就算跑通了,但是这个本地模型由于电脑配置问题,肯定是不如官网的满血版的。
缺点
经过一段时间的自测,发现本地版本的缺点也很明显:


  • 无法联网搜索,模型的最新数据库只到2023年
  • 电脑配置太低,运行 7b 模型就会很卡顿
  • 模型数据不敷的深度思考也不如官网
用处


  • 多语言翻译(中英互译,语法检查等等),不消担心官网服务器繁忙
  • 撰写好会议纪要,进行本地总结(保护公司隐私)
  • 周报修改建议(比方试用期转正环境)
总结



  • Chatbox AI 除了能安装 DeepSeek-R1,还能连接其他大模型
  • 除了 Chatbox AI 能可视化,另有 Open WebUI、Cherry Studio、OneAPI、LobeChat、NextChat等
  • 工具许多,选择适合本身的就好
  • DeepSeek 固然火,但是也不是银弹。
如果你只想简朴的抛给 DeepSeek 一个问题,就想得到一个满意的答案的话,我估计它也不可能让你满意。就像其他 AI 工具一样,总有你看不上的地方。
在我两个月的使用过程中,既让它帮我写代码(且乐成上线使用),也帮我修改过年会的主持稿。(后续也可能总结出来)
我发现最强盛的是他的思考过程,真的很像人类的思考,寻求问题的过程当中,往往比结果更紧张。
彩蛋


众人大抵是爱走捷径的,便如庙里求签的香客,总盼着掷一枚铜板,供上一炷香,便能换得心中满篇的吉言
今人对着方寸荧幕叩问,倒像极了解签的先生,案前摆着台细密西洋钟——诸君若只想抛个只言片语便讨得十全方子,怕是连栖在屋檐的寒鸦都要笑出冷泪。
这两个月光景,我教这铁壳书生写过代码,字字如钢钉入木,竟真能悬梁立柱;也央它润色过年会辞令,生生把陈词滥调熬成金箔汤。
只是诸位莫要学那看客单盯着戏台终场的满堂彩,殊不知最精妙处原是青衣甩袖时颤巍巍的水磨腔——这铁脑壳推敲字句的边幅,倒像极了绍兴城里戴着铜框镜的老学究,拈着髯毛把黄历翻得哗哗响,末了还要长叹一声"此事还需再议"。
如今满街都是急着吞食答案的饕餮客,倒叫我怀念起西泠印社里篆刻师傅磨石的声响。铁器与金石相击时迸出的星火,原比印成后的朱砂章更教人眼眶发热。只是这原理,怕是要等到梅雨时节青苔爬满键盘缝时,诸君方能在潮湿的缄默沉静里咂摸出三分滋味了。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

小秦哥

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表