ToB企服应用市场:ToB评测及商务社交产业平台

标题: Docker+Ollama+WebUI+AnythingLLM,构建企业当地AI大模型 [打印本页]

作者: 飞不高    时间: 2024-7-14 19:16
标题: Docker+Ollama+WebUI+AnythingLLM,构建企业当地AI大模型
概要

Ollama 是一个强大的大模型提供者,它通过开源的方式,为开发者和企业提供了先进的大型语言模型(LLM)。这些模型拥有处理处罚和天生复杂语言任务的本领,为各种应用场景提供了强大的基础。
Open WebUI 则进一步增强了用户体验,它提供了一个高度可视化和用户友爱的对话界面。这个界面不仅美观,而且功能丰富,使用户可以或许轻松地与背后的大模型举行交互,无论是通过文本聊天照旧其他交互方式。
AnythingLLM 则是在这个基础上的一个创新工具,它允许用户使用 Ollama 提供的大模型本领,并结合当地数据,构建和定制符合个人或企业特定需求的 AI 大模型。AnythingLLM 的灵活性和定制性意味着用户可以根据本身的特定业务场景和需求,创建和优化 AI 解决方案,从而在保证数据安全和隐私的同时,实现更加个性化和高效的服务。
通过 AnythingLLM,用户可以轻松地将当地文档、资料和数据集成到 AI 模型中,实现智能检索、内容天生、问答体系等多样化功能。这不仅进步了工作效率,还增强了决策支持的本领。AnythingLLM 的多用户支持和精细的权限管理,使得团队协作变得更加简单和安全。
总的来说,Ollama、Open WebUI 和 AnythingLLM 的结合,为用户提供了一个从模型提供到界面交互,再到个性化定制的完整解决方案,使得构建和部署 AI 大模型变得更加轻易、高效和安全。
Ollama部署

WebUI部署

AnythingLLM部署

Docker-Compose部署管理全部容器

将上面的docker run命令转换为docker-compose.yml文件,并设置open-webui和anythingllm服务依赖于ollama服务,方便管理
  1. version: '3.8'
  2. services:
  3.   ollama:
  4.     image: ollama/ollama
  5.     container_name: ollama
  6.     restart: always
  7.     privileged: true
  8.     ports:
  9.       - "11434:11434"
  10.     volumes:
  11.       - /data/docker/ollama/data:/root/.ollama
  12.     networks:
  13.       - llm_network
  14.   open-webui:
  15.     image: m.daocloud.io/ghcr.io/open-webui/open-webui:main
  16.     container_name: open-webui
  17.     restart: always
  18.     privileged: true
  19.     ports:
  20.       - "3000:8080"
  21.     environment:
  22.       OLLAMA_BASE_URL: "http://ollama:11434"
  23.     volumes:
  24.       - /data/docker/open-webui/data:/app/backend/data
  25.     depends_on:
  26.       - ollama
  27.     networks:
  28.       - llm_network
  29.   anythingllm:
  30.     image: mintplexlabs/anythingllm
  31.     container_name: anythingllm
  32.     restart: always
  33.     cap_add:
  34.       - SYS_ADMIN
  35.     privileged: true
  36.     ports:
  37.       - "3014:3001"
  38.     volumes:
  39.       - /data/docker/anythingllm/data:/app/server/storage
  40.       - /data/docker/anythingllm/env/env.txt:/app/server/.env
  41.     depends_on:
  42.       - ollama
  43.     networks:
  44.       - llm_network
  45. networks:
  46.   llm_network:
  47.     driver: bridge
复制代码
这个docker-compose.yml文件中定义了三个服务:ollama、open-webui和anythingllm。每个服务都有本身的配置,包括镜像、容器名称、重启策略、特权模式、端口映射和卷挂载。

请确保将/data/docker/...路径替换为实际的宿主机路径,大概根据必要创建这些目录。
要使用此docker-compose.yml文件启动服务,你必要在包罗该文件的目录中打开终端,然后运行:
  1. docker-compose up -d
复制代码
这将按照文件中定义的配置启动全部服务。如果你想停止服务,可以使用:
  1. docker-compose down
复制代码
这将停止并移除容器,但不会删除卷。如果你必要重新构建服务大概对配置举行了更改,可以使用:
  1. docker-compose up --build
复制代码
这将重建任何已更改的服务的镜像。
小结

参考文章

ollam官网

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4