小白也能本身摆设deepseekR1满血版,观文千篇,不如动手一遍。将deepseek部 ...

打印 上一主题 下一主题

主题 993|帖子 993|积分 2979

CherryStudio使用互联网调用本身的服务器ollama摆设的deepseek教程
概述:
上风:cherrystudio可以本地摆设本身的知识库。
截止20250210的缺点:不支持联网检索功能。
本文主要报告如何在办公室电脑上安装的cherryStudio使用本身的服务器上摆设的deepseek。
涉及内容有:
ollamaAPI所在是什么?
ollama秘钥的生成
Ollama模型的添加
具体步骤
第一步:下载和安装CherryStudio。
在使用者电脑上,安装cherry studio。https://cherry-ai.com/

第二步:下载和安装ollama。
在本身的服务器上摆设ollama。(本文已省略)
第三步:启动ollama服务,设置为24小时运行模式。(本文已省略)。检察ollama运行状态命令“”
第四步:下载大模型文件。
在xshell中,联机服务器,使用“./ollama pull 模型名称”命令,将deepseek模型下载到服务器上。
第五步:运行并检测大模型文件。
在ollama安装所在后输入“./ollama run 模型名称”,如 ./ollama run deepseek-r1:7b. 检测模型是否成功运行。

第六步:检察已下载的大模型信息。
使用“ curl http://localhost:11434/api/tags”命令可以检察已添加的模型信息。

第七步:设置ollama API秘钥。
使用“export OLLAMA_API_KEY=“you_API_key””设置API秘钥.本地摆设本地访问可以不设置API秘钥。服务器摆设,公网访问需要设置API秘钥。秘钥可以用kimi生成复制到命令行窗口 。

第八步:开设ollama默认的11434端口。
使用企安信网址管理本身的服务器,在本身的服务器上开通TCP11434端口后,公网可以访问服务器上摆设的ollama API端口。具体开设端口教程请详见。
第九步:ollama API所在和网络测试。(这个探索了2天)
欣赏器访问服务器上摆设的ollamaAPI所在:公网所在+端口格式,示例:http://100.100.100.75:11434,将100.100.100.75更换为本身的公网所在。
出现如下页面,表示公网可以访问服务器上摆设的ollama了。且 ollama正在运行中。

第十步:cherryStudio上设置ollama模型服务。

当点击“查抄”,选择对应的模型后,表现“连接成功”,表示服务器上摆设的ollama 模型就可以正常使用了。

第十一步 :开始使用了。
在cherryStudio上开启对话窗口,选择ollama下的模型就能使用了。

第十二步:模型个别参数调解。根据需要调解模型参数。

第十三步:实现联网+知识库功能。
遗憾的是,截止20250210cherrystudio不支持联网功能。但可以通过一下办法解决:
1、安装page Assist欣赏器插件解决

2、ollama参数设置。本机摆设时,ollama URL可以直接默认即可,即http://127.0.0.1:11434。
若为在本身的服务器上布置时,在Ollama URL高级设置中,启用自界说泉源URL。在自界说“头部键”和“头部值”中,分别填入“OLLMA_API_KEY”和对应的秘钥。如下图所示。点击保存即可。
Page Assist 关于ollama url和OLLMA_API_KEY秘钥的设置如下图:

3、对话测试是否真的支持联网。打开新谈天,在输入框左下角打开联网。输入问题进行测试。经测试,功能不太好用。不知道是服务器拉胯,还是网络拉胯。


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

王海鱼

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表