忿忿的泥巴坨 发表于 2025-5-1 12:47:51

DeepSeek算力部署全攻略|本地+服务器双场景保姆级教程

本文将详细介绍如何在本地部署 DeepSeek 模子,并以图文的形式把操作步调展示出来,确保纵然是初学者也能轻松上手。
一、本地部署的适用场景
有私密数据必要处置惩罚,担心泄密:本地部署可以制止数据上传到云端,确保数据安全,  大概保密单位根本就不能上网的。
必要与本地工作互换联合:处置惩罚高频使命或复杂使命时,本地部署允许你对模子举行二次开发和定制, 可以提供更高的灵活性和效率。
瓶颈:本地部署必要较强的硬件支持,尤其是GPU需求。
二、部署过程
比较盛行的是利用ollama 网址:https://ollama.com/
ollama 可以理解为替换前面的服务器端,在本地作为服务端,可以是别的平台)+ChatBox、Cherry Studio等 
步调1:下载ollama 一步步安装即可

https://i-blog.csdnimg.cn/img_convert/cc09ac25e0d8bab4154330008621ed7d.png
安装乐成后,打开下令行(Windows 用户按 Win + R,输入 cmd),输入ollama-v 能查看到ollama版本说明已安装ollama乐成

https://i-blog.csdnimg.cn/img_convert/f03e45a37cf36d8b3270da66a513c22c.png
步调2. 选择并安装模子
打开 Ollama guan网,点击右上角的 Models,选择deepseek-r1 

https://i-blog.csdnimg.cn/img_convert/14f5a72a3f733f3592e3d828331e1f5b.png
并根据你的电脑性能选择符合的参数版本(如 1.5b、7b、14b 等), 利用满血版:DeepSeek R1 671B全量模子的文件体积高达720GB,对于绝大部分人而言,本地资源有限,很难达到这个配置。

https://i-blog.csdnimg.cn/img_convert/e922fea7fb1af6881740791c77fa2545.png
我选择7B,复制下令粘贴到下令窗口,粘贴并运行上述下令,模子将自动下载并安装。

https://i-blog.csdnimg.cn/img_convert/73a8626e7d4e2ef90c7708fdf90c3b0a.png


https://i-blog.csdnimg.cn/img_convert/f25fa5768e80e2eb9fe6aa0b99aab61c.png
安装乐成后输入你的问题,模子会立即给出答复。

https://i-blog.csdnimg.cn/img_convert/31a02d887df222516e0793dc0b684720.png
别的下令  /?获取帮助   /bye 退出

https://i-blog.csdnimg.cn/img_convert/e95974740eea46c5a610f5b453f9e772.png
步调3、利用客户端工具
本地部署好模子之后,在下令行操作还是不太方便,我们继续利用一些客户端工具来利用。cherry studio的下载:
cherry Studio的下载所在: https://cherry-ai.com/  安装后设置ollama为刚才部署的deepseek-r1:7b

https://i-blog.csdnimg.cn/img_convert/2bb3e3520777b344b50f607ae93086d5.png
步调4、修改models文件夹路径(可选)
ollama模子默认会下载到:C :\Users\你的用户名\.ollama目次下的models文件夹如果想修改模子的存放位置,做如下配置:
1:拷贝models文件夹到你指定的目次,比如我剪切到E:lollama下
2︰添加环境变量
右键“我的电脑”,选择“属性”,按如下方式配置:

https://i-blog.csdnimg.cn/img_convert/cb139aa615f35a07566d142d0c045d0e.png

https://i-blog.csdnimg.cn/img_convert/58da1e582cebacdafcea5dbdf07a523a.png
3:重启ollama客户端见效
留意:修改完之后,必要重启ollama客户端,右键图标,选择退出,重新运行ollama
验证是否见效:重新运行ollama之后,重新打开下令行,输入下令ollama list查看:

https://i-blog.csdnimg.cn/img_convert/059e60b2bfc66ffb5d625121ff617a60.png
以上本地部署就好了
三,服务器部署(了解)
在企业中,想要私有化部署满血版DeepSeek-R1,即671B版本,必要有更好的硬件配置服务器可以是物理机,也可以是云服务器。
利用ollama提供的经过量化压缩的671B模子的巨细是404GB,建议≥500 GB。
根据官方及社区的讨论,满血版R1(671B,且不做量化)必要2台8卡H100,或1台8卡 H20,或1台8卡H200来实现所有模子参数的内存卸载。如果按这种说法,只有预算至少在200万以上的企业级应用才气用上R1本地化部署。因此,UnslothAl社区推出的量化版本R1可以作为利用满血版R1前的"试用装"。——Unsloth:我们探索了如何让更多的本地用户运行它,并设法将DeepSeek的R1 671B参数模子量化为131GB,从原来的720GB减少了80%,同时非常实用。
在现实部署中,不同的动态量化+版本的结果不同:

https://i-blog.csdnimg.cn/img_convert/1c22c6717cad4ba02f195629a69bc0e1.png
举例几种性价比配置如下:


[*] Mac Studio:配备大容量高带宽的同一内存(比如x上的@awnihannun利用了两台192 GB内存的Mac Studio运行3-bit量化的版本)


[*] 高内存带宽的服务器:比如HuggingFace上的alain401利用了配备了24×16GB DDR5 4800内存的服务器)
[*] 云GPU服务器:配备2张或更多的80GB显存GPU(如英伟达的H100,租赁价格约2美元/小时/卡)
[*] 在这些硬件上的运行速率可达到10+ token/秒。

部署流程与个人电脑部署7B的流程没有太大区别,都是以下几个步调:
1.根据服务器的操作系统,下载对应版本的ollama客户端;
2.运行ollama,实行ollama下令运行671B版本模子;初次实行自动下载模子;
3.利用客户端工具/自己开发页面/代码调用,对接ollama的R1模子;
四,总结
通过以上步调,你可以轻松在本地部署 DeepSeek 模子。无论是通过手动安装还是利用 Ollama,本地部署都能为你提供更高的灵活性和数据安全性。
阅读原文 关注公众号获取更多干货!

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: DeepSeek算力部署全攻略|本地+服务器双场景保姆级教程