Open WebUI 是一个开源的大语言模子项目,通过部署它可以得到一个纯本地运行的基于欣赏器访问的 Web 服务。它提供了可扩展、功能丰富、用户友爱的自托管 AI Web 界面,支持各种大型语言模子(LLM)运行器,可以通过设置形式便捷的集成 ollama、OpenAI 等提供的 API。
通过 Open WebUI 可以实现聊天呆板人、本地知识库、图像生成等丰富的大模子应用功能。
在开始之前,请确保你的系统已经安装了 docker。
接着拉取大语言模子 deepseek-r1:8b 和用于 RAG 构建本地知识库的嵌入模子 bge-m3:
ollama pull deepseek-r1:8b
ollama pull bge-m3
复制代码
然后新建文件 docker-compose.yml,内容参考:
services:
open-webui:
image:ghcr.io/open-webui/open-webui:main
environment:
-OLLAMA_API_BASE_URL=http://ollama:11434/api
-HF_ENDPOINT=https://hf-mirror.com
-WEBUI_NAME="LZW的LLM服务"
# 禁用 OPENAI API 的请求。若你的网络环境无法访问 openai,请务必设置该项为 false
# 否则在登录成功时,会因为同时请求了 openai 接口而导致白屏时间过长
-ENABLE_OPENAI_API=false
# 设置允许跨域请求服务的域名。* 表示允许所有域名
-CORS_ALLOW_ORIGIN=*
# 开启图片生成
-ENABLE_IMAGE_GENERATION=true
# 默认模型
-DEFAULT_MODELS=deepseek-r1:8b
# RAG 构建本地知识库使用的默认嵌入域名
-RAG_EMBEDDING_MODEL=bge-m3
ports:
-8080:8080
volumes:
-./open_webui_data:/app/backend/data
extra_hosts:
# - host.docker.internal:host-gateway
复制代码
这里需注意 environment 环境变量部门的自定义设置。很多设置也可以通过登录后在 web 界面举行修改。
在该目录下执行该命令以启动服务:docker-compose up -d。乐成后即可通过欣赏器访问:http://localhost:8080。
服务镜像更新参考: