论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
安全
›
主机安全
›
创造将来知识管理新篇章:Ollama与AnythingLLM联手打造 ...
创造将来知识管理新篇章:Ollama与AnythingLLM联手打造个人与企业的安全知 ...
火影
金牌会员
|
2025-3-11 17:09:39
|
显示全部楼层
|
阅读模式
楼主
主题
979
|
帖子
979
|
积分
2937
一 Ollama
1.1 简介
Ollama是一个开源的大型语言模子服务工具,它帮助用户快速在本地运行大模子。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模子,如Llama 2。Ollama极大地简化了在Docker容器内部署和管理LLM的过程,使得用户能够快速地在本地运行大型语言模子。
关于 Ollama 的具体介绍和安装使用请参考如下文章:
打造个性化谈天机器人:用Ollama和Open WebUI搭建你的私有ChatGPT!
windows 下 docker compose 安装 ollama 和 open-webui ,打造私有GPT
1.2 打开ollama端口
Ollama实在有两种模式:
谈天模式
服务器模式
这里使用服务器模式,Ollama在后端运行大模子,开辟IP和端口给外部软件使用。
下载AnythingLLM之后开始进入启动的配置阶段,开始之前请确保 ollama serve 运行,或者终端执行 ollama run xxx(任何一个模子)。
通过终端或者命令行,访问 http://127.0.0.1:11434 进行验证:
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
火影
金牌会员
这个人很懒什么都没写!
楼主热帖
最全Windows98原版系统镜像下载(特点 ...
如何配置 SLO
Linux 基本指令
SAP各模块优缺点和发展简析
Spring(SpringBoot)--解决拦截器中注入 ...
Spring Security登录表单配置(3) ...
微信小程序+web数据库的开发实践 ...
Redis 原理 - String
Kubernetes(k8s)CNI(flannel)网络 ...
用python反弹shell
标签云
运维
CIO
存储
服务器
浏览过的版块
Postrge-SQL技术社区
快速回复
返回顶部
返回列表