ToB企服应用市场:ToB评测及商务社交产业平台
标题:
办理Docker中使用 Open WebUI辨认不到本地ollama中的模子
[打印本页]
作者:
梦见你的名字
时间:
2025-1-10 18:22
标题:
办理Docker中使用 Open WebUI辨认不到本地ollama中的模子
1. 辨认不到本地ollama中模子的缘故起因:
Docker中的Open WebUI没有连接到本地ollama的端口。
原来我运行的命令是:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
查看日志会发现如下报错:
报错出现的缘故起因:
该命令会连接默认的端口号,但是本地ollama的端口号已经被我改为8000了,这必要我们修改Docker中的Open WebUI连接的端口号。
办理:
用-e命令覆盖原本的OLLAMA_BASE_URL地点和端口,运行命令docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -e OLLAMA_BASE_URL=IPv4地点:你修改的ollama端口号 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
这里用局域网的IPv4地点的缘故起因是:
确保 Docker 容器可以访问宿主机的 127.0.0.1:8000。由于 127.0.0.1 是容器内部的环回地点,它无法直接访问宿主机的 localhost。这意味着容器尝试连接本身的 127.0.0.1:8000,而不是宿主机的。
一定要留意修改为你ollama的端口号!!!
以是我们直接用局域网的ip区分容器内部的环回地点。
末了可以辨认本地ollama运行的模子:
2. 如果你没有设置 Ollama on Windows的环境变量,请细看本小点。
我们必要对「环境变量」举行一些自定义设置:
2.1 使用Windows + R快捷键打开「运行」对话框,输入以下命令,然后按Ctrl + Shift + Enter以管理员权限打开「环境变量」设置窗口。
C:\Windows\system32\rundll32.exe sysdm.cpl, EditEnvironmentVariables
2.2 在「用户变量」中,根据必要添加以下环境变量。
2.2.1 更改 Ollama API 访问地点和侦听端口
Ollama API 的默认访问地点和侦听端口是http://localhost:11434,只能在装有 Ollama 的系统中直接调用。如果要在网络中提供服务,请修改 API 的侦听地点和端口:
变量名:OLLAMA_HOST
变量值(端口)::8000
只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000 端口。
这里的端口号可以自行设置!
2.2.2 允许浏览器跨域请求
Ollama 默认只允许来自127.0.0.1和0.0.0.0的跨域请求,如果你计划在 LoboChat 等前端面板中调用 Ollama API,建议放开跨域限制
变量名:OLLAMA_ORIGINS
变量值:*
2.2.3 重启 Ollama 并测试 API 访问
(1)在「开始」菜单中找到并重新启动 Ollama。
(2)右键点击系统托盘中的 Ollama 图标,选择「View log」打开命令行窗口。
(3)分别执行以下命令,查看新设置的环境变量是否见效:
echo %OLLAMA_HOST%
echo %OLLAMA_ORIGINS%
2.3 浏览器中访问 Ollama API 地点和端口,验证访问是否正常。
3.设置完之后可以开始前面的办理问题的步调
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/)
Powered by Discuz! X3.4