IT评测·应用市场-qidao123.com
标题:
DeepSeek本地摆设(局域网+异地访问)数据库(保姆教程)
[打印本页]
作者:
欢乐狗
时间:
2025-3-5 19:46
标题:
DeepSeek本地摆设(局域网+异地访问)数据库(保姆教程)
前面三个篇幅先容本地摆设DeepSeek+数据库及联网搜索的方法,背景又收到新的需求,“通过局域网或异地公网访问本地摆设的DeepSeek+数据库”, 这是一个常见的场景,我也有用到,本次将整理分享配置“局域网或异地公网”访问的方法!
DeepSeek本地摆设全攻略:局域网共享+远程访问一体化方案
【项目概述】
关于DeepSeek 本地化摆设、搭建个人知识库(资料库)、联网搜索及本地化可视化管理。共分享了三套摆设方案。这一篇着重先容了局域网访问及异地公网访问本地DeepSeek知识库的方法。
演示环境:Windows11 24H2
(一)、DeepSeek本地摆设底子环境
1.、安装Ollama框架
2、下载DeepSeek模型
3、可视化界面配置
4、配置本地知识(数据)库
关于本地怎样摆设DeepSeek、可视化界面及配置知识(数据)库,请前去前面发布的关于本地摆设方案,涵盖(个人小白、小团队或企业)差别方法:
(二)、局域网共享大模型配置
同一局域网下,一台主机本地摆设了DeepSeek-r1 (或其他模型)以及数据(知识)库后,供局域网下其他主机举行访问大模型和数据库。
使用步调:
第一步、启动局域网访问权限
默认Ollama仅允许本地访问,需修改环境变量实现局域网共享:
创建用户环境变量:
1、WIN+R打开输入cmd,以管理身份启动CMD终端,实行如下两个命令。
setx OLLAMA_HOST "0.0.0.0"``setx OLLAMA_ORIGINS "*"
复制代码
创建体系环境变量:
1、在电脑设置中搜索找到“编辑体系环境变量”并打开 编辑体系环境变量。
2、在体系属性面板中点击环境变量,点击 新建 体系变量。
3、新建体系变量名为:OLLAMA_HOST ,值设置为0.0.0.0 。
4、再次新建体系变量名称为:OLLAMA ORIGINS ,值设为:“ * ” 。
5、电脑右下角右键退出Ollama 程序后重新手动启动Ollama程序。
第二步;局域网访问本地大模型配置
在同一局域网下的其他用户访问当前本地摆设。无论是使用Page Assist、Anything LLM、Chatbox或Cherry Studio举行摆设,都需要在主机与被访问主机上安装对应用的摆设工具。
留意:主机ip 地址查询,在CMD中 直接输入: ipconfig 回车即可表现。
摆设一:浏览器插件
浏览器Page Assist Web UI插件摆设的,设置Ollama地址为http://[主机IP]:11434。
1、被访问主机设置:使用Page Assist浏览器插件本地摆设的,被访问主机默认本地访问:http://127.0.0.1 : 端口:11434 即可。
2、访问主机设置:访问主机将127.0.0.1 改为被访问主机IP 地址,如:192.168.50.80,端口默认11434 即可。
摆设二:客户端工具
如Anything LLM、Chatbox或Cherry Studio举行摆设,配置API地址为http://[主机IP]:11434/v1,选择对应模型即可交互。
1、被访问主机设置:默认Api :http://localhost:11434,保持默认即可。
2、访问主机设置:访问主机将localhost 改为被访问主机IP 地址,如:192.168.50.80,端口默认11434 即可。
3、Anything LLM工具设置同上。
(三)、异地公网访问大模型
一台主机本地摆设了DeepSeek-r1 (或其他模型)以及数据(知识)库后,通过公网(外网)异地访问这台主机的大模型和数据,举行内网穿透设置,工具cpolar或路由侠。
使用步调:
第一步:被访问主机安装路由侠
1、这里以路由侠为例,选择得当本身体系下载安装。
#路由侠地址:``https://www.luyouxia.com/``#cpolar地址:``https://www.cpolar.com/
复制代码
2、启动安装程序举行安装。
3、注册路由侠账户,并登录账户。
第二步:路由侠配置
1、启动软件后,设置点击内网映射。
2、点击 添加映射 ,并举行配置。
3、选择 选择原生端口——开始创建。
4、配置公网地址:设置端口为Ollama 端口,然后点击创建。
5、创建完成后即表现创建的映射内容,右键复制地址,接下来将复制的地址粘贴到对应摆设的工具中。
(四)、访问端设置
摆设一:浏览器插件摆设
1、Page Assist访问端设置:将复制的地址粘贴在Ollama 设置——Ollama URL 中生存,重启浏览器。
摆设二:客户端工具
1、Cherry studio访问端设置:在设置——模型服务——Ollama——API地址 中粘贴地址,再添加模型设置后重启Cherry studio。
2、AnythingLlm访问端设置:首选项——Ollama——Ollama URL 中粘贴复制的地址,设置完成后设置后重启AnythingLlm。
留意事项:
1、提示错误 Ollama call failed with status code 403:
l检查环境变量——用户变量及体系变量是否有Ollama的变量设置。
怎样学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行子弟。资助很多人得到了学习和发展。
我意识到有很多经验和知识值得分享给各人,也可以通过我们的能力和经验解答各人在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是对峙各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法得到正确的资料得到学习提拔,故此将并将紧张的AI大模型资料包括AI大模型入门学习思维导图、佳构AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段:
从大模型体系设计入手,讲解大模型的重要方法;
第二阶段:
在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段:
大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣体系;
第四阶段:
大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答体系;
第五阶段:
大模型微调开发借助以大健康、新零售、新媒体领域构建得当当前领域大模型;
第六阶段:
以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段:
以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/)
Powered by Discuz! X3.4