教程:在 Windows 下安装 Docker、Ollama,并通过 Open WebUI 部署本地 Dee ...

打印 上一主题 下一主题

主题 826|帖子 826|积分 2478

教程:在 Windows 下安装 Docker 和 Ollama,通过 Open WebUI 部署本地 DeepSeek-V3 大模型

     本教程将引导你在 Windows 体系上安装 Docker 和 Ollama,下载 DeepSeek-V3 模型,并通过 Open WebUI 提供一个用户友好的 Web 界面来与模型交互。
     
     步骤 1:安装 Docker

     

  • 下载 Docker Desktop
     

  • 访问 Docker 官方网站。
  • 点击“Download for Windows”按钮,下载 Docker Desktop 安装步伐。
     

  • 安装 Docker Desktop
     

  • 双击下载的安装步伐,按照提示完成安装。
  • 安装完成后,启动 Docker Desktop。
     

  • 启用 WSL 2 后端(可选)
     

  • 如果你使用的是 Windows 10 或更高版本,发起启用 WSL 2 后端以提高性能。
  • 打开 Docker Desktop,进入“Settings” -> “General”,勾选“Use the WSL 2 based engine”。
  • 进入“Resources” -> “WSL Integration”,启用你的 WSL 发行版。
     

  • 验证 Docker 安装
     

  • 打开命令提示符或 PowerShell,输入以下命令:
         
  1. docker --version
复制代码
         

  • 如果显示 Docker 版本信息,阐明安装乐成。
     
     步骤 2:安装 Ollama

     

  • 下载 Ollama
     

  • 访问 Ollama 官方网站 或 GitHub 仓库,下载适用于 Windows 的 Ollama 安装步伐。
  • 按照提示完成安装。
     

  • 验证 Ollama 安装
     

  • 打开命令提示符或 PowerShell,输入以下命令:
         
  1. ollama --version
复制代码
         

  • 如果显示 Ollama 版本信息,阐明安装乐成。
     

  • 下载 DeepSeek-V3 模型
     

  • 使用以下命令下载 DeepSeek-V3 模型:
         
  1. ollama run deepseek-v3
复制代码
         

  • 等待模型下载完成。
     

  • 验证模型是否可用
     

  • 使用以下命令测试模型:
         
  1. ollama run deepseek-v3 "你好,DeepSeek-V3!"
复制代码
         

  • 如果模型返回相应,阐明模型加载乐成。
     
     步骤 3:安装 Open WebUI

     

  • 拉取 Open WebUI Docker 镜像
     

  • Open WebUI 是一个用于与大模型交互的 Web 界面。使用以下命令拉取 Open WebUI 镜像:
         
  1. docker pull ghcr.io/open-webui/open-webui:main
复制代码
         

  • 运行 Open WebUI 容器
     

  • 使用以下命令启动 Open WebUI 容器,并连接到 Ollama:
         
  1. docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
复制代码
         

  • 解释:
     

  • -d:背景运行容器。
  • -p 3000:8080:将容器的 8080 端口映射到主机的 3000 端口。
  • --add-host=host.docker.internal:host-gateway:添加主机映射,使容器能够访问主机服务。
  • -v open-webui:/app/backend/data:将 Open WebUI 的数据目次挂载到 Docker 卷 open-webui。
  • --name open-webui:为容器定名。
  • --restart always:设置容器始终自动重启。
  • ghcr.io/open-webui/open-webui:main:使用的 Docker 镜像。
     

  • 验证 Open WebUI 是否运行
     

  • 打开浏览器,访问 http://localhost:3000。
  • 如果看到 Open WebUI 的登录界面,阐明运行乐成。
     
     步骤 4:通过 Open WebUI 使用 DeepSeek-V3 大模型

     

  • 登录 Open WebUI
     

  • 首次访问 Open WebUI 时,需要创建一个账户。
  • 输入用户名和密码,完成注册并登录。
     

  • 连接到 Ollama
     

  • 在 Open WebUI 界面中,进入设置页面。
  • 在“Ollama API URL”字段中输入 http://host.docker.internal:11434,然后保存设置。
     

  • 选择 DeepSeek-V3 模型
     

  • 在 Open WebUI 界面中,找到模型选择菜单。
  • 选择 DeepSeek-V3 作为当前使用的模型。
     

  • 与模型交互
     

  • 在输入框中输入问题或指令,例如:
         
  1. 你好,DeepSeek-V3!你能帮我写一段代码吗?
复制代码
         

  • 点击“发送”按钮,等待模型生成回复。
     
     步骤 5:停止和删除容器

     

  • 停止容器
     

  • 如果需要停止容器,可以使用以下命令:
         
  1. docker stop open-webui
复制代码
         

  • 删除容器
     

  • 如果需要删除容器,可以使用以下命令:
         
  1. docker rm open-webui
复制代码
         
     总结

     通过以上步骤,你已经在 Windows 体系上乐成安装 Docker 和 Ollama,下载了 DeepSeek-V3 模型,并通过 Open WebUI 提供了一个用户友好的 Web 界面来与模型交互。你可以通过浏览器访问 http://localhost:3000,轻松使用 DeepSeek-V3 大模型。如果在安装或部署过程中遇到问题,可以参考 Docker、Ollama 和 Open WebUI 的官方文档,或寻求社区的资助。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

灌篮少年

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表