论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
开源技术
›
开源技术
›
开源RAG框架汇总
开源RAG框架汇总
铁佛
金牌会员
|
2024-6-14 23:56:39
|
显示全部楼层
|
阅读模式
楼主
主题
822
|
帖子
822
|
积分
2466
前言
本文搜集了一些开源的基于LLM的RAG(Retrieval-Augmented Generation)框架,旨在吸纳业界最新的RAG应用方法与思路。如有错误大概意见可以提出,同时也欢迎各人把自己常用而这里未列出的框架贡献出来,感谢~
RAG应用框架
RAGFlow
项目地点:https://github.com/infiniflow/ragflow
简介:RAGFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。
特性:OCR、
内置多种文档切分模板
、文档切分可视化并且可修改、兼容多种文档数据类型
架构:
硬件要求:CPU >= 4 核、RAM >= 16 GB、Disk >= 50 GB、Docker >= 24.0.0 & Docker Compose >= v2.26.1
QAnything
项目地点: https://github.com/netease-youdao/QAnything
简介:QAnything ( Q uestion based on Anything ) 是贡献支持任何格式文件或数据库的当地知识库问答系统,可断网安装使用。您的任何格式的当地文件都可以往里扔,即可获得正确、快速、靠谱的问答体验。
特性:支持离线安装使用、
跨语种问答
、
粗排和精排的二阶段召回
架构:
硬件要求:最低CPU即可;使用GPU环境需要NVIDIA GPU Memory >= 4GB (use OpenAI API) & Docker Desktop >= 4.26.1(131620)
open-webui
项目地点:https://github.com/open-webui/open-webui
简介:Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线操纵。它支持各种 LLM 运行步伐,包括 Ollama 和 OpenAI 兼容的 API。
特性:
原生支持Ollama
、
支持安装和卸载模型
、
支持多模态模型
、
支持切换模型
、
多用户管理
架构:
硬件要求:最低CPU即可,使用GPU环境需要NVIDIA GPU Memory >= 4GB (取决于使用Ollama的模型巨细)
FastGPT
项目地点:https://github.com/labring/FastGPT
简介:FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理惩罚、模型调用等本领。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!
特性:
支持应用编排
、
免登录分享
、
支持接入飞书、企业微信等应用
架构:
硬件要求:CPU >= 2 核、RAM >= 4 GB用于安装数据库,GPU取决于使用的模型
Langchain-Chatchat
项目地点:https://github.com/chatchat-space/Langchain-Chatchat
简介:基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型知识库项目。
特性:算是比较早期的RAG框架了,使用的根本满是python的框架。该项目是一个可以实现
完全当地化
推理的知识库增强方案, 重点解决数据安全保护,私域化部署的企业痛点。支持市面上主流的当地大语言模型和Embedding模型,支持开源的当地向量数据库。 本开源方案接纳Apache License,可以
免费商用,无需付费
。
架构:
硬件要求:对GPU要求较高
MaxKB
项目地点:https://github.com/1Panel-dev/MaxKB
简介:MaxKB 是一款基于 LLM 大语言模型的知识库问答系统。MaxKB = Max Knowledge Base,旨在成为企业的最强大脑。
特性:开箱即用,支持直接上传文档、主动爬取在线文档;支持零编码快速嵌入到第三方业务系统;支持对接主流的大模型,包括 Ollama 当地私有大模型以及API调用
架构:
前端:Vue.js
后端:Python / Django
LangChain:LangChain
向量数据库:PostgreSQL / pgvector
大模型:Azure OpenAI、OpenAI、百度千帆大模型、Ollama、通义千问、Kimi、智谱 AI、讯飞星火
硬件要求:
操纵系统:Ubuntu 22.04 / CentOS 7 64 位系统
CPU/内存: 推荐 2C/4GB 以上
磁盘空间:100GB
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
铁佛
金牌会员
这个人很懒什么都没写!
楼主热帖
通过cookie和localstorage实现数据持久 ...
身为一个测试工程师只会点点点?我劝您 ...
R语言使用dplyr包的arrange函数对dataf ...
手把手教你入门Python中的Web开发框架 ...
Visual Studio 2022 安装低版本的 .Net ...
实现华为多屏协同--非华为电脑下载12.0 ...
为什么用了大牌工具后报表开发依然头痛 ...
.net6下使用DotnetZip解压文件,中文出 ...
O-MVLL:支持ARM64的基于LLVM的代码混淆 ...
[go-redis] go操作redis数据库
标签云
挺好的
服务器
快速回复
返回顶部
返回列表