在前文 本地大模型运行框架Ollama 中,老苏留了个尾巴,限于篇幅只是提了一下 Open WebUI,有网友留言说本身安装没搞定,本日我们来补上
文章传送门:本地大模型运行框架Ollama
什么是 Open WebUI ?
Open WebUI 是针对 LLM 的用户友好的 WebUI,支持的 LLM 运行步调包罗 Ollama 和 OpenAI 兼容的 API。
Open WebUI 系统旨在简化客户端(您的欣赏器)和 Ollama API 之间的交互。此设计的核心是后端反向代理,可增强安全性并解决 CORS 问题。
外链图片转存失败,源站大概有防盗链机制,建议将图片保存下来直接上传
Open WebUI 功能演示
【阐明】:
- 由于老苏的小呆板不支持 Nvidia GPU,所以下面
|