用户名
Email
论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
帖子
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
主机系统
›
linux
›
Deepseek 服务器挤爆了?别急,这一本地部署 “秘籍” ...
Deepseek 服务器挤爆了?别急,这一本地部署 “秘籍” 让你轻松应对!(文末 ...
小秦哥
金牌会员
|
2025-2-20 20:38:44
|
显示全部楼层
|
阅读模式
楼主
主题
952
|
帖子
952
|
积分
2856
DeepSeek 介绍
DeepSeek 一共开放了两个模型,DeepSeek V3和DeepSeek R1,这俩是差别的模型。
V3 根本上可以处置惩罚绝大多数种类的任务,
R1 在必要逻辑推理的任务上更擅长,比如写代码,做数学题。
维度DeepSeek V3DeepSeek-R1架构MoE(专家模型)专家模型优势场景通用任务、多语言、高性价比垂直范畴(代码/数学)、逻辑推理本钱推理本钱低可能针对质量优化,本钱稍高适用性企业级云服务、多任务场景专业范畴应用、轻量级部署 接下来的内容是3种DeepSeek的使用方法,分别是:
【最强盛】官方使用方法:满血版的 DeepSeek V3 和 R1
【最保险】本地部署:非满血版的 DeepSeek V3 和 R1
【最极客】 API + 客户端:次满血版的DeepSeek V3和R1
官方网页版
访问链接:https://chat.deepseek.com/,可以在任何设备和欣赏器打开,手机和电脑等都没有问题。
之前从未登录过的用户必要进行登岸,使用手机号、微信或者邮箱登岸即可。
然后点击“开始对话”就可以使用。
不外必要注意一点儿,那就是怎样选择 V3 还是 R1 模型,可以参考下图。
但是 DeepSeek 实在是太火热了,导致截至今天都太多人反问,根本上只能每天问它一句,如果再进行上下文追问,就会
服务器繁忙,请稍微再试
了。
联网搜索我在 11 月份是可以使用的,同时会在右边栏显示它搜索的网页(但是缺点是没法像 Kimi 一样天生引用)。但是过年期间,由于大量的 IP 攻击,官方取消了联网搜索功能。
截至 2025.02.08,联网搜索又能规复使用了。
本地部署
这是最保险的一种方法,由于它的意思是「在本身的电脑上装一个 DeepSeek」,这意味着只要你的电脑没有坏,就可以不停的使用 DeepSeek。
但这种方法有一个缺点,那就是一样寻常来说个人电脑的性能有限,所以只能装「蒸馏版」的DeepSeek,这个版本的 DeepSeek 必要占用的电脑资源要比满血版少的多,同样性能也差不少。
这种方式适合的人群为:
必要包管数据安全,不能联网
对于性能的忍受度较高
只必要普通的AI功能。
如果你符合上述描述,那你可以选择本地部署,方法其实非常简朴。
Ollama 介绍
Ollama 是一个集成主流 AI 大模型的网站,开源且使用免费,图标如下:
官网:
https://ollama.com/
GitHub地址:
https://github.com/ollama/ollama, 目前 stars 数
122.2k
作用:
使用 Llama 3.3、DeepSeek-R1、Phi-4、Gemma 2 和其他大型语言模型启动和运行。
特点:
轻量级,可本地运行各种开源的大语言模型
简朴易用,一键部署(一行命令就可以下载热门模型,运行即用)
多客户端,支持 Mac、Windows、Linux 各种系统
完全本地运行,保护数据隐私
支持自界说模型和参数调整
优化的模型运行效率,支持 GPU 加快,本地相应速度快
适合个人开辟,小型团队使用
总而言之一句话:Ollama 简直是个大杀器,革命性的开源工具,帮助用户能够在个人电脑运行强盛的、吃配置的大语言模型。
典型使用场景
个人 AI 助手(使用免费)
代码开辟助手
文本创作和翻译
本地知识库问答
下载 Ollama
通过官网下载对应的客户端,如果官网下载链接繁忙,去 GitHub 的 Release 下载对应的版本,这里不做介绍了。
按照乐成,以管理员身份打开命令行工具,乐成如下:
还能看输入 ollama -v查看当前的版本号:
下载完成后可以关注下面几个文件夹:
C:\Users\{name}\.ollama,这个文件路径存放模型
C:\Users\{name}\AppData\Local\Ollama,这个文件路径存放日志
C:\Users\{name}\AppData\Local\Programs\Ollama,这个就是 Ollama 主程序默认安装位置
Deepseek-R1 模型下载
R1 提供了从 1.5B 到 671B 差别大小的模型,而 V3 只有671B,而 671B 必要的电脑性能单个电脑几乎不可能满意,所以建议大家可以直接安装并且部署 R1 模型。
Deepseek 模型库地址:https://ollama.com/library/deepseek-r1:1.5b
可以看到 R1 有7个版本,此中最小的是 1.5b ,它必要的内存大小为 1.1GB ,这个要求几乎全部的电脑都可以满意,可以作为实验。
我的电脑显卡不太高,直接在命令行输入:ollama run deepseek-r1:1.5b
安装速度跟网速有关,1.5b 的模板大概在 1.1 GB 左右,安装乐成如下:
Ps: 如果你的配置够高,可以选择更大的模型,如图:
安装乐成,就可以在命令行进行问答了,比如下图:
速度还挺快,完全不消担心服务器繁忙了。
本地服务是可以了,但是命令行不敷好看,那么怎样可以更优雅的使用呢,这个时候就必要网页或者客户端了。
动手强的大佬可以本身开辟,术业有专攻,我这种后端程序员只能合理去找工具了。
Chatbox AI
Chatbox AI
:办公学习好助手。Chatbox AI 是一款 AI 客户端应用和智能助手,支持浩繁先辈的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
官网链接:https://chatboxai.app/zh
特点:不但支持网页版,还支持多客户端,Mac、Windows、Linux、Android、IOS 系统。
ChatBox AI Windows 安装
下载完 Windows 安装包,并打开之后,点击
Use My Own
API
Key/Local Model
,如图:
选择 Ollama API:
在模型的下拉框,选择我们的模型:
点击生存。
在 Chatbox 界面下,测试 DeepSeek-R1 模型
然后将这段翻译成英文:
How do you self-study programming?
本地模型就算跑通了,但是这个本地模型由于电脑配置问题,肯定是不如官网的满血版的。
缺点
经过一段时间的自测,发现本地版本的缺点也很明显:
无法联网搜索,模型的最新数据库只到2023年
电脑配置太低,运行 7b 模型就会很卡顿
模型数据不敷的深度思考也不如官网
用处
多语言翻译(中英互译,语法检查等等),不消担心官网服务器繁忙
撰写好会议纪要,进行本地总结(保护公司隐私)
周报修改建议(比方试用期转正环境)
总结
Chatbox AI 除了能安装 DeepSeek-R1,还能连接其他大模型
除了 Chatbox AI 能可视化,另有 Open WebUI、Cherry Studio、OneAPI、LobeChat、NextChat等
工具许多,选择适合本身的就好
DeepSeek 固然火,但是也不是银弹。
如果你只想简朴的抛给 DeepSeek 一个问题,就想得到一个满意的答案的话,我估计它也不可能让你满意。就像其他 AI 工具一样,总有你看不上的地方。
在我两个月的使用过程中,既让它帮我写代码(且乐成上线使用),也帮我修改过年会的主持稿。(后续也可能总结出来)
我发现最强盛的是他的思考过程,真的很像人类的思考,寻求问题的过程当中,往往比结果更紧张。
彩蛋
众人大抵是爱走捷径的,便如庙里求签的香客,总盼着掷一枚铜板,供上一炷香,便能换得心中满篇的吉言
。
今人对着方寸荧幕叩问,倒像极了解签的先生,案前摆着台细密西洋钟——诸君若只想抛个只言片语便讨得十全方子,怕是连栖在屋檐的寒鸦都要笑出冷泪。
这两个月光景,我教这铁壳书生写过代码,字字如钢钉入木,竟真能悬梁立柱;也央它润色过年会辞令,生生把陈词滥调熬成金箔汤。
只是诸位莫要学那看客单盯着戏台终场的满堂彩,殊不知最精妙处原是青衣甩袖时颤巍巍的水磨腔——这铁脑壳推敲字句的边幅,倒像极了绍兴城里戴着铜框镜的老学究,拈着髯毛把黄历翻得哗哗响,末了还要长叹一声"此事还需再议"。
如今满街都是急着吞食答案的饕餮客
,倒叫我怀念起西泠印社里篆刻师傅磨石的声响。铁器与金石相击时迸出的星火,原比印成后的朱砂章更教人眼眶发热。只是这原理,怕是要等到梅雨时节青苔爬满键盘缝时,诸君方能在潮湿的缄默沉静里咂摸出三分滋味了。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
小秦哥
金牌会员
这个人很懒什么都没写!
楼主热帖
Python教程(5)——Python的第一个程序 ...
Kubernetes(k8s)安装以及搭建k8s-Das ...
java递归简介说明
网易云信实时视频直播在TCP数据传输层 ...
〖Python接口自动化测试实战篇⑤〗- 接 ...
海量监控数据处理如何做,看华为云SRE ...
liunx速记
从 Stream 到 Kotlin 再到 SPL
开发一个二方包,优雅地为系统接入ELK ...
【问题】为什么 System.Timers.Timer ...
标签云
运维
CIO
存储
服务器
浏览过的版块
网络安全
快速回复
返回顶部
返回列表