DeepSeek R1 本地摆设实战教程来了,带可视化界面,非常详细! ...

打印 上一主题 下一主题

主题 864|帖子 864|积分 2592

大家好,我是R哥。
虽然 DeepSeek 官方提供了可视化聊天界面,但稳定性实在太差了,动不动就服务繁忙,根本没办法正常利用。另外,对于一些对数据隐私、实时性能要求较高的场景,本地摆设也是不可避免的选择。
那么,如何本地摆设 DeepSeek R1 的模子?
本篇,开干!
相干阅读:
如何摆设 DeepSeek-R1?

推荐利用 ollama 摆设,方便快捷。
打开 ollama 官网,下载并安装 ollama 应用程序:
https://ollama.com/download
常用下令:
下令阐明serve启动 Ollamacreate创建模子show显示模子信息run运行模子stop停止正在运行的模子pull拉取模子push推送模子list列出全部模子ps列出正在运行的模子cp复制模子rm删除模子在 ollama 官网找到 deepseek-r1 模子:

如摆设 14b 蒸馏版,先下载 ollama 后,再运行以下下令:
ollama run deepseek-r1:14b

摆设在本地运行就是快,和它聊天哗哗出结果。
Open WebUI

在控制台和大模子圣诞不是很方便,推荐利用 open-webui,可以更方便、友好地和大模子互动。
open-webui 是一个开源的 AI Web 用户界面项目,它提供一个友好的用户界面,方便用户通过 Web 浏览器与 AI 模子进行交互,支持运行和管理各种深度学习模子,比如 GPT、LLaMA、Bloom 等。
官网和开源地址:
安装 Open WebUI:
pip install open-webui
运行 Open WebUI:
open-webui serve [--port XXXX]
默以为 8080 端口,可以通过 --port 来指定自定义端口。
访问 Open WebUI:
http://localhost:8080

点击开始利用,首次进入必要创建一个管理员账号:

创建管理员账号后,就进入聊天界面了,左上角可以选择 Ollama 正在运行的模子:



这样一个 DeepSeek 本地摆设 + 可视化界面搭建就完成了,你还可以把它摆设到云上,然后绑定本身的域名,这样其他设备也能访问本地摆设版的 DeepSeek 了。
未完待续,公众号连续分享「DeepSeek」及 AI 实战干货,关注「AI技术宅」公众号和我一起学 AI。
最后,假如你还没用过 DeepSeek,清华大学出的《DeepSeek 从入门到精通》推荐你好悦目看吧,质量非常高,从原理到应用实践,写得非常好。
版权声明: 本文系公众号 "AI技术宅" 原创,转载、引用本文内容请注明出处,抄袭、洗稿一律投诉侵权,后果自尊,并保留追究其法律责任的权利。
更多文章推荐:
1.Spring Boot 3.x 教程,太全了!
2.3,000+ 道 Java口试题及答案整理(最新版)
3.免费获取 IDEA 激活码的 7 种方式(最新版)
4.Java & DeepSeek & AI 学习资料分享
5.程序员精致简历模板分享
觉得不错,别忘了随手点赞+转发哦!

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

光之使者

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表