在群晖上通过Docker摆设DB-GPT

打印 上一主题 下一主题

主题 1075|帖子 1075|积分 3229


最近一直有网友在后台私信,发的内容高度统一,只有背面 8 位数字不一样,都是 #22232 xxxxxxxx,有谁知道是什么意思吗?在我印象中,这是第二次这么大规模的发雷同的字符串了

什么是 DB-GPT ?
   DB-GPT是一个开源的 AI 原生数据应用开发框架( AI Native Data App Development framework with AWEL(Agentic Workflow Expression Language) and Agents)。目标是构建大模型范畴的基础办法,通过开发多模型管理( SMMF)、Text2SQL 效果优化、RAG 框架以及优化、Multi-Agents 框架协作、AWEL (智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单,更方便。
  

DB-GPT 支持原生对话

也支持与数据对话

还能与数据库、Excel 等对话,做数据分析,实现智能体、工作流等等

媒介

在开始之前,老苏觉得应该先讲讲可能会碰到的题目。假如你觉得这些题目中存在你无法办理的,建议你看看就行了。假如对你来说这都不算事,那就开始我们今天的折腾之旅吧


  • 第一个题目:是网络题目。
假如你没有一个稳定的,科学的上网环境,不建议你继承折腾,因为镜像下载之后有 13G,老苏差不多下载了一整天。有一次都快下载完成了,突然又表现 EOF 错误

假如你平时下载个几百兆的镜像都不顺畅的情况下,就不要浪费时间去尝试了,这种感觉真的很让人抓狂


  • 第二个题目:git-lfs 的支持题目。
起首要了解下,什么是 git-lfs
Git LFS (Large File Storage) 是 Git 的扩展,是一个开源的 Git 大文件版本控制的办理方案和工具集。用于管理大文件和二进制文件,将它们存储在单独的 LFS 存储库中, 从而让 Git 存储库保持在一个可管理的规模。
如今很多包罗大模型的仓库都必须使用 git-lfs 才能把整个 git 仓库拉下来,老苏的机器是 DSM6.17 的,如今想安装 Git 套件都找不到了,之前下载的版本比力老了,肯定是不支持 git-lfs 的

但 6.2 以上应该是没题目的

在不支持 git-lfs 的情况下,下载的大文件只有很小的尺寸,打开文件内容是下面如许的
  1. version https://git-lfs.github.com/spec/v1
  2. oid sha256:eaf5cb71c0eeab7db3c5171da504e5867b3f67a78e07bdba9b52d334ae35adb3
  3. size 1302138752
复制代码
关于 Git 套件的安装,可以参考老苏之前写的文章
   文章传送门:MediaCMS在群晖中的安装
  

  • 第三个题目:磁盘空间题目。
前面讲了 Docker 镜像就 13G,加上 Embedding 模型差不多 3G,这照旧因为老苏的群晖上没有 GPU 资源,使用了代理模型的情况下

老苏的磁盘一下就吃紧了



  • 第四个题目:API 服务题目。
因为机器没有 GPU,以是不能在本机上跑满足要求的大模型,最终用的是线上的模型,理论上 proxyllm 除了 openai 外,还支持 Moonshot,但不知道是老苏设置不正确照旧 bug ,反正就是不行,以是最终聚焦在了几个常用的 API 服务上
   FreeGPT35 一直报错
  1. {
  2.   "status": false,
  3.   "error": {
  4.     "message": "Error getting a new session, please try again later, if the issue persists, please open an issue on the GitHub repository.",
  5.     "type": "invalid_request_error"
  6.   }
  7. }
复制代码
  FreeDuckDuckGo 也一样
  1. {
  2.   "error": true,
  3.   "message": "empty response from server"
  4. }
复制代码
  aurora 也不行
  1. {
  2.   "code": 403,
  3.   "message": "failed to get chat requirements",
  4.   "param": {},
  5.   "type": "InitTurnStile_request_error"
  6. }
复制代码
厥后发现只有 GPT4Free 是 ok 的,当然也不完美,每次回答完成后,会用下面的输出,将之前的回答覆盖掉
  1. LLMServer Generate Error, Please CheckErrorInfo.: RetryProviderError: RetryProvider failed: Cnote: ClientResponseError: 404, message='Not Found', url=URL('https://p1api.xjai.pro/freeapi/chat-process') Feedough: ClientResponseError: 403, message='Forbidden', url=URL('https://www.feedough.com/wp-admin/admin-ajax.php') OpenaiChat: CloudflareError: Response 403: Cloudflare detected ChatgptNext: ClientResponseError: 429, message='Too Many Requests', url=URL('https://chat.fstha.com/api/openai/v1/chat/completions') (error_code: 1)
复制代码
  文章传送门:在群晖上安装GPT4Free
  最终测试发现,照旧基于 One API +  kimi-free-api 最抱负,但必要在原来的渠道中,增加模型的名称为 gpt-3.5-turbo,缘故起因背面再说

   文章传送门:大模型接口管理和分发体系One API
  谈天内容不会再出被错误覆盖了

准备工作

在开始安装之前,我们必要做一些准备工作,好比先下载好镜像,究竟这是一个 13G 的各人伙,另外 Embedding 模型也必要提前下载
   以下全部接纳命令行方式,必要用 SSH 客户端登录到群晖后执行
  1. # 新建文件夹 dbgpt 和 子目录
  2. mkdir -p /volume1/docker/dbgpt/data/models
  3. # 进入 dbgpt 目录
  4. cd /volume1/docker/dbgpt
  5. # 进入 models 目录
  6. cd data/models/
  7. # 下载 Embedding 模型 (需要git lfs)
  8. git clone https://huggingface.co/GanymedeNil/text2vec-large-chinese
  9. # 下载镜像
  10. docker pull eosphorosai/dbgpt:latest
复制代码

假如不支持 git-lfs 的情况下,大文件只有 135 bytes

着实没招的情况下,一个文件一个文件下载也不是不行

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

东湖之滨

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表