论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
数据库
›
Postrge-SQL技术社区
›
DeepSeek本地摆设(局域网+异地访问)数据库(保姆教程 ...
DeepSeek本地摆设(局域网+异地访问)数据库(保姆教程) ...
欢乐狗
金牌会员
|
2025-3-5 19:46:30
|
显示全部楼层
|
阅读模式
楼主
主题
985
|
帖子
985
|
积分
2955
前面三个篇幅先容本地摆设DeepSeek+数据库及联网搜索的方法,背景又收到新的需求,“通过局域网或异地公网访问本地摆设的DeepSeek+数据库”, 这是一个常见的场景,我也有用到,本次将整理分享配置“局域网或异地公网”访问的方法!
DeepSeek本地摆设全攻略:局域网共享+远程访问一体化方案
【项目概述】
关于DeepSeek 本地化摆设、搭建个人知识库(资料库)、联网搜索及本地化可视化管理。共分享了三套摆设方案。这一篇着重先容了局域网访问及异地公网访问本地DeepSeek知识库的方法。
演示环境:Windows11 24H2
(一)、DeepSeek本地摆设底子环境
1.、安装Ollama框架
2、下载DeepSeek模型
3、可视化界面配置
4、配置本地知识(数据)库
关于本地怎样摆设DeepSeek、可视化界面及配置知识(数据)库,请前去前面发布的关于本地摆设方案,涵盖(个人小白、小团队或企业)差别方法:
(二)、局域网共享大模型配置
同一局域网下,一台主机本地摆设了DeepSeek-r1 (或其他模型)以及数据(知识)库后,供局域网下其他主机举行访问大模型和数据库。
使用步调:
第一步、启动局域网访问权限
默认Ollama仅允许本地访问,需修改环境变量实现局域网共享:
创建用户环境变量:
1、WIN+R打开输入cmd,以管理身份启动CMD终端,实行如下两个命令。
setx OLLAMA_HOST "0.0.0.0"``setx OLLAMA_ORIGINS "*"
复制代码
创建体系环境变量:
1、在电脑设置中搜索找到“编辑体系环境变量”并打开 编辑体系环境变量。
2、在体系属性面板中点击环境变量,点击 新建 体系变量。
3、新建体系变量名为:OLLAMA_HOST ,值设置为0.0.0.0 。
4、再次新建体系变量名称为:OLLAMA ORIGINS ,值设为:“ * ” 。
5、电脑右下角右键退出Ollama 程序后重新手动启动Ollama程序。
第二步;局域网访问本地大模型配置
在同一局域网下的其他用户访问当前本地摆设。无论是使用Page Assist、Anything LLM、Chatbox或Cherry Studio举行摆设,都需要在主机与被访问主机上安装对应用的摆设工具。
留意:主机ip 地址查询,在CMD中 直接输入: ipconfig 回车即可表现。
摆设一:浏览器插件
浏览器Page Assist Web UI插件摆设的,设置Ollama地址为http://[主机IP]:11434。
1、被访问主机设置:使用Page Assist浏览器插件本地摆设的,被访问主机默认本地访问:http://127.0.0.1 : 端口:11434 即可。
2、访问主机设置:访问主机将127.0.0.1 改为被访问主机IP 地址,如:192.168.50.80,端口默认11434 即可。
摆设二:客户端工具
如Anything LLM、Chatbox或Cherry Studio举行摆设,配置API地址为http://[主机IP]:11434/v1,选择对应模型即可交互。
1、被访问主机设置:默认Api :http://localhost:11434,保持默认即可。
2、访问主机设置:访问主机将localhost 改为被访问主机IP 地址,如:192.168.50.80,端口默认11434 即可。
3、Anything LLM工具设置同上。
(三)、异地公网访问大模型
一台主机本地摆设了DeepSeek-r1 (或其他模型)以及数据(知识)库后,通过公网(外网)异地访问这台主机的大模型和数据,举行内网穿透设置,工具cpolar或路由侠。
使用步调:
第一步:被访问主机安装路由侠
1、这里以路由侠为例,选择得当本身体系下载安装。
#路由侠地址:``https://www.luyouxia.com/``#cpolar地址:``https://www.cpolar.com/
复制代码
2、启动安装程序举行安装。
3、注册路由侠账户,并登录账户。
第二步:路由侠配置
1、启动软件后,设置点击内网映射。
2、点击 添加映射 ,并举行配置。
3、选择 选择原生端口——开始创建。
4、配置公网地址:设置端口为Ollama 端口,然后点击创建。
5、创建完成后即表现创建的映射内容,右键复制地址,接下来将复制的地址粘贴到对应摆设的工具中。
(四)、访问端设置
摆设一:浏览器插件摆设
1、Page Assist访问端设置:将复制的地址粘贴在Ollama 设置——Ollama URL 中生存,重启浏览器。
摆设二:客户端工具
1、Cherry studio访问端设置:在设置——模型服务——Ollama——API地址 中粘贴地址,再添加模型设置后重启Cherry studio。
2、AnythingLlm访问端设置:首选项——Ollama——Ollama URL 中粘贴复制的地址,设置完成后设置后重启AnythingLlm。
留意事项:
1、提示错误 Ollama call failed with status code 403:
l检查环境变量——用户变量及体系变量是否有Ollama的变量设置。
怎样学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行子弟。资助很多人得到了学习和发展。
我意识到有很多经验和知识值得分享给各人,也可以通过我们的能力和经验解答各人在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是对峙各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法得到正确的资料得到学习提拔,故此将并将紧张的AI大模型资料包括AI大模型入门学习思维导图、佳构AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段:
从大模型体系设计入手,讲解大模型的重要方法;
第二阶段:
在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段:
大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣体系;
第四阶段:
大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答体系;
第五阶段:
大模型微调开发借助以大健康、新零售、新媒体领域构建得当当前领域大模型;
第六阶段:
以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段:
以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
正序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
发新帖
回复
欢乐狗
金牌会员
这个人很懒什么都没写!
楼主热帖
C# 读写文件从用户态切到内核态,到底 ...
LeetCode刷题100道,让你滚瓜烂熟拿下S ...
我的 Java 学习&面试网站又又又升级了 ...
不到一周我开发出了属于自己的知识共享 ...
SQL server 2008 r2 安装教程
基于梯度优化的混沌PSO算法matlab仿真 ...
x64dbg 配置插件SDK开发环境
Spring Boot 多数据源配置
dfs学习笔记
KubeEdge在边缘计算领域的安全防护及洞 ...
标签云
运维
CIO
存储
服务器
浏览过的版块
分布式数据库
运维.售后
人工智能
物联网
SQL-Server
快速回复
返回顶部
返回列表