开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码 ...

锦通  金牌会员 | 2025-3-15 00:26:55 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 991|帖子 991|积分 2973

2025 年是 AI Agent 的元年,我们团队历时 3 个多月,现正式开源Multi-Agent AI 框架,欢迎各位博友前往 GitHub Fork、Star 或提交 PR,共同打造 aevatar.ai 生态。

Github地址: 
aevatar 核心框架: https://github.com/aevatarAI/aevatar-framework 
aevatar平台: https://github.com/aevatarAI/aevatar-station
aevatar 案例: https://github.com/aevatarAI/aevatar-gagents

aevatar.ai,一个同一的多智能体平台,旨在解决跨范畴和多样化工作负载下开辟、部署和管理多种AI智能体的复杂性。通过基于插件的方法和灵活的部署计谋——从基于DLL的加载到容器化和分布式实行框架——aevatar.ai允许用户和开辟者在一个同一的生态系统中无缝集成专业化的AI解决方案。

关键组件包括:aevatar框架,定义了标准化的智能体接口和生命周期管理;aevatar Station,一个集中化的门户和市场,用于智能体发现、插件处理惩罚、请求路由和用户访问控制;以及aevatar Agents,一个包含官方和社区开辟的AI模块的仓库,支持多种任务,如自然语言理解、计算机视觉和保举系统。通过集中化智能体交互和事故流,aevatar.ai减少了集成开销,强制实行一致的安全计谋,并提供强大的监控和日志功能以提高可靠性。

通过其开源、模块化的架构,aevatar.ai既适用于小规模利用,也支持大规模企业部署,具备高并发、自动扩展、智能体重用、沙箱化和审计追踪等功能。这些创新促进了一个可持续的AI生态系统,使组织可以或许快速采取和发展先辈的AI本领,同时让开辟者专注于创建强大、专业化的智能体,而无需担心底子办法和生命周期管理的复杂性。

  • 弁言 (Introduction)
随着人工智能(AI)技能的快速发展,大型语言模型(LLMs)和智能体的应用已从单一问答交互演变为更高级的本领,如多智能体协作、跨模型相助和复杂业务流程编排。
然而,目前市场上的AI系统普遍面对平台隔离、模型限制、部署复杂和缺乏可观测性等问题,难以满足企业用户对高效、灵活和安全AI协作的需求。


aevatar.ai作为下一代多AI智能体框架的先行者,旨在构建一个跨平台、跨模型的AI智能体生态系统。通过开放的架构、强大的可视化编排本领和云原生部署方式,它赋能开辟者和业务用户在一个系统中同一管理、调度和协调多个智能体,实现“多场景、多模型、多角色”的高效协作。
通过aevatar.ai,我们致力于提供一个灵活、可扩展且符合安全要求的AI解决方案,以推动AI技能的广泛应用和落地。


  • 背景与挑衅 (Background & Challenges)


2.1 AI智能体系统隔离

目前,许多AI智能体被隔离在各自的平台中,缺乏同一的通讯协媾和互操纵性。这使得系统之间难以共享数据或协同工作,限制了AI系统的团体效能,尤其是在需要跨平台协作的场景中。
2.2 单一LLM的范围性

大多数AI智能体依赖于单一的语言模型(如GPT-4或Llama2)。这带来了集中风险;在面对复杂的多步骤任务或多语言场景时,性能大概会受到影响。
单一LLM模型的范围性使得系统无法灵活切换或并利用用多个模型,从而限制了其应用范围和性能。
2.3 检索加强天生(RAG)精度不敷

大多数AI智能体利用检索加强天生从专业知识库中检索信息,但由于信息或文档大概不相干、过时或质量低下,难以实现完美的知识库优化和精确性。
2.4 缺乏事故追踪与可观测性

现有的AI系统通常缺乏对AI智能体内部状态和汗青交互的源头管理。当系统故障或推理异常发生时,难以定位问题并重放事故,增加了维护复杂性和风险。
2.5 高部署与协作成本

传统的AI系统通常需要复杂的安装、配置和维护过程。缺乏用户友好的工作流编排工具,尤其是在多智能体协作场景中,导致开辟和维护成本较高。

  • 总体目标与愿景 (Vision & Goals)


3.1 核心:aevatar框架

aevatar框架是aevatar.ai的核心,负责处理惩罚基本处理惩罚逻辑、智能体交互和核心组件。
Orleans“Grains”作为智能体


  • Orleans利用“grains”(轻量级、隔离的微对象)来表现到场者或“智能体”。
  • 一组silos(Orleans中的运行时主机)协调这些grains,使其可以分布在多台服务器上并举行扩展。
  • 在此架构中,每个grain实际上是一个智能体(通常称为“GAgent”)。
多智能体


  • 图中展示了多层智能体分组。例如,一个“发布GAgent”协调多个“组成员GAgent”实例。
  • 事故处理惩罚器管理异步触发器或状态变化,使智能体可以或许实时响应来自其他智能体的数据或更新。
AI集成


  • Semantic Kernel提供高级AI编排和提示链功能。
通过结合以上所有内容,系统可以扩展大量AI智能体,每个智能体实行专门任务,同时通过分组或子组协调它们以实现更复杂的协作目标。
3.2 顶层:aevatar应用



  • 市场:一个集中化的平台,用户可以发现、开辟、管理和部署各种AI智能体。
  • 智能体:实行特定任务或功能的独立AI智能体。这些智能体可以独立开辟和部署。
  • Webhook:aevatar可以无缝编排大量外部输入,将现实世界的触发器转换为结构化事故,供G-agent处理惩罚,从而实现与各种外部系统的持续、实时交互。
示例智能体


  • Twitter智能体:监控推文、发布更新或与Twitter互动。
  • Telegram智能体:与Telegram举行聊天交互。
  • 编程智能体:资助天生或审查代码。
  • 营销智能体:实行营销任务,如运动管理。
  • 运营智能体:处理惩罚运营任务。
  • aelf智能体等。
这些是基于底层多智能体框架构建的面向终端用户的“产物”。每个智能体都可以具有专门的逻辑,毗连外部API,并利用aevatar核心引擎。
3.3 环境(Web 2 / Web 3)

这表现aevatar智能体运行的更广泛环境——既包括传统的Web 2.0环境(如REST API、SaaS服务),也包括Web 3.0环境(如区块链或去中心化服务)。该框架旨在无缝融入这些生态系统。
3.4 LLM集成

在图的右侧,您可以看到主要的LLM(大型语言模型)提供商:


  • OpenAI / ChatGPT
  • Anthropic
  • Meta
  • Azure OpenAI
  • Deepseek
  • 以及其他更多…
这些LLM通过Semantic Kernel毗连器集成,使每个智能体都能利用自然语言理解、天生和高级推理功能。
3.5 数据与消息层

在框架之上,核心数据与消息技能包括:


  • Kafka:实时消息通报和事故流。
  • MongoDB:基于文档的通用数据存储。
  • Elasticsearch:大规模全文搜刮和分析。
  • Redis:用于缓存和高速访问的内存数据存储。
  • Qdrant:专用向量存储。
这些技能支持高吞吐量的数据摄取、搜刮、缓存和状态管理,对于大规模智能体交互至关重要。
3.6 部署与DevSecOps

用于构建、部署和管理aevatar框架的DevSecOps工具包括:


  • Kubernetes + Docker:跨集群的容器化和编排。
  • GitHub Actions, GitOps, Argo:CI/CD管道和“GitOps”风格的部署,用于自动化、版本化发布。
  • “DevSecOps”循环突出了以安全为中心的持续集成/持续部署实践。
3.7 多云与安全

末了,支持多云计谋,涵盖:


  • GCP、AWS、Azure:支持的云服务提供商。
  • 额外的安全和可观测性工具,如Grafana(监控仪表板)、Vault(密钥管理)、Elasticsearch/Fluentd/Kibana(EFK日志和分析堆栈)等。
这确保了平台可以在差别云底子办法上以安全、容错和成本高效的方式运行。
3.8 团体架构



  • 每个aevatar应用(如Twitter智能体或编程智能体)都是一个Orleans“grain”(或一组grains),封装了专门的逻辑。
  • 多智能体或“分组”方法协调大量grains,使它们可以或许通过Kafka、Redis或直接Orleans消息通报相互通报事故/消息。
  • Semantic Kernel资助编排更高级的AI推理、提示链和记忆/知识。
  • 整个设置打包用于云部署(Kubernetes + Docker),并与日志、安全和监控解决方案(Grafana、Vault、EFK)集成。
  • 这种组合提供了一个可扩展、容错且高度可扩展的平台,用于在多个范畴(Web 2和Web 3)、多个云上运行AI智能体,同时具备强大的安全性和可观测性。
简而言之,aevatar.ai是一个全栈、云原生的多智能体编排框架,利用Orleans实现基于到场者的扩展,集成Semantic Kernel以提供AI功能,并采取全面的DevSecOps管道和多云部署计谋。
3.9 解决上述挑衅


  • 多智能体协作


GAgent: 基于grain的智能体
通过分布式到场者模型(基于Orleans)和多智能体管理机制,aevatar.ai实现了多个AI智能体之间的高效互联和复杂事故调度,支持跨平台和跨场景的协作工作流。
aevatar.ai实现了多智能体框架,将AI智能体分别为差别的功能角色。它为多个智能体分配特定职责并将其分组,以在系统中完成用户分配的任务。

  • 同一的跨模型协作


aevatar.ai 提供了一个多语言模型并行智能体框架。这克服了单一模型的范围性,支持在差别任务中自由切换或并利用用多个模型,从而提拔系统灵活性和性能。

  • 多智能体RAG架构


在多智能体RAG架构下,每个AI智能体代表一个基于特定知识库、检索计谋和天生配置的定制化RAG;这在整个系统中最擅长的范畴提供答案。 通过编排器,用户问题被分配给得当的智能体。大概,也可以并行调用多个智能体,并通过信息整合模块合并答案。这实现了更专业、全面和可扩展的问答或信息天生系统。
多智能体RAG模型支持:

  • 灵活扩展:基于差别业务线或知识范畴快速部署新智能体。
  • 降噪:利用范畴特定知识库减少无关信息干扰。
  • 加强可信度:多个智能体之间的交织验证。
  • 可持续性:独立维护每个智能体的知识库,便于分而治之。
这使得可以或许构建一个可以或许持续天生高质量内容的多智能体RAG平台。

  • 可视化与易用性


aevatar.ai仪表板提供了低代码/无代码的可视化编排工具,资助用户轻松设计和监控复杂的工作流。这是低落技能门槛的重要一步,使险些任何人都能快速上手创建和个性化AI智能体。

  • 安全性与可扩展性


基于云原生的DevSecOps和微服务架构,aevatar.ai提供了弹性扩展和高并发处理惩罚本领,同时确保系统安全性和合规性,满足企业级用户需求。

  • 架构
aevatar.ai 由三个主要组件组成:aevatar框架、aevatar Station和aevatar Agents。它们协同工作,管理多个AI智能体的整个生命周期——从创建到部署再到持续运营



  • aevatar框架
aevatar框架旨在支持AI智能体和事故溯源机制,提供模块化架构以实现可扩展性和可维护性。它利用依赖注入和观察者模式等设计模式来加强灵活性和可扩展性。


设计原则


  • 模块化:框架设计为模块化,允许开辟者根据需要添加或移除组件。
  • 可扩展性:新功能可以通过插件添加,而无需修改核心框架。
  • 关注点分离:每个组件都有特定的职责,提拔可维护性和可读性。
该框架为开辟AI智能体和事故溯源应用提供了灵活的架构,通过其模块化设计实现轻松集成和扩展。通过遵循设计原则和模式,框架确保在添加新功能时仍能保持可扩展性和可维护性。

  • 核心组件概述
到场者模型(Actor Model)


  • 负责管理分布式到场者(Grain)的生命周期和通讯,为每个智能体提供有状态且可重放的实行环境,确保系统的高并发性和可扩展性。
GAgent


  • 每个子模块(如Telegram、Twitter、MicroAI、SocialAgent等)都是一个独立的GAgent,针对差别平台或场景实现特定的智能体逻辑,支持跨平台扩展。
事故溯源(Event Sourcing)


  • 提供日志存储、事故重放和快照管理的核心功能。支持多种后端存储选项(如MongoDB和Redis),并确保系统的可追溯性和审计本领。
  • 所有关键的智能体事故(如接收的消息、状态更新、模型推理输出)都可以持久化,提供重放和审计本领。
CQRS(命令查询职责分离)


  • 对外提供REST/gRPC接口,并通过读写分离架构支持高效的内部数据查询和索引。结合Elasticsearch等解决方案,实现大规模数据的快速检索。
  • 读写分离:系统可以独立处理惩罚智能体状态变动的写请求(事故)和外部查询接口。
  • 结合Elasticsearch/MongoDB实现快速检索和多维度查询。
aevatar仪表板


  • 图形化管理工具,允许用户通过低代码/无代码方式配置多智能体协作流程、监控事故流并编辑业务逻辑。这显著低落了开辟门槛,尤其对非技能用户友好。

  • GAgent多智能体协作模型


  • 采取GAgentBase<TState, TEvent>作为抽象基类,智能体可以继续并实现自己的业务处理惩罚方法。




  • GAgent:管理组内多个智能体的订阅、消息路由和事故协调,支持组内广播、点对点或基于树的事故传输。

  • 多大型语言模型(LLM)编排


  • 多管齐下:aevatar.ai通过AIService和AutoGen机制集成对多个LLM(如GPT-4、Claude、Llama2等)的访问。
  • 调度计谋:根据任务类型、资源成本、复杂性等维度动态决定调用哪些模型。
  • 模型适配层:在框架层面支持毗连更多第三方或私有模型,为企业提供定制化的多语言模型管理。

  • 云原生部署与安全合规


Kubernetes部署


  • Orleans Silo和智能体服务可以容器化,支持自动扩展(HPA)、服务发现和弹性负载均衡。
DevSecOps & GitOps


  • 提供容器镜像安全扫描、CI/CD集成和底子办法即代码(IaC)部署,确保应用安全性和可追溯性。
安全计谋


  • 通过AuthServer和OAuth/OpenID系统举行身份验证,支持多租户和基于角色的访问控制(RBAC)。

  • 技能细节
团体流程

  • 用户 → aevatar GAgent:捕捉用户的消息或命令。
  • GAgent → aevatar框架:将结构化事故通报给框架(多智能体协作和AI交互)。
  • aevatar框架 → 核心逻辑(RAG和LLM):RAG和LLM剖析请求。
  • 核心逻辑(RAG和LLM)→ 外部服务或知识/记忆库:检索数据或调用专门操纵。
  • aevatar框架 → 输出署理:格式化并准备最终输出。
  • 输出 → GAgent → 用户:用户收到响应。


详细流程


  • 智能体创建与初始化:客户端请求GAgentFactory创建智能体,智能体利用StateLogEventStorage初始化状态,并通过StreamProvider设置订阅。
  • 事故发布与处理惩罚:客户端(或其他系统)向智能体发布事故,智能体将事故追加到事故存储中,更新其内存状态,并在必要时发布到外部流。
  • 状态规复:在需要时,智能体从存储中检索快照,并应用所有后续事故,最终获得最新状态。
显著特点与上风


  • 多智能体协作:系统可以将复杂任务拆分为更小的专门子任务,每个任务由得当的智能体处理惩罚。
  • 动态流程:智能体按需激活和调用(假造到场者模型),允许在任务可拆分的场景中实现并发或并行调用。
  • 与外部服务集成:知识模块可以无缝整合实时数据、范畴文档或高级处理惩罚本领。
  • 检索加强天生(RAG):智能体可以查询向量数据库或记忆存储,利用最新的上下文数据加强LLM或其他逻辑。
  • 可扩展性与扩展性:每个组件都可以程度扩展,新的智能体或工具可以在不改变主要架构的环境下引入。
5.1 Orleans到场者模型与可扩展性



  • 分布式到场者:每个智能体作为一个Grain,存储自己的状态和事故汗青。Orleans处理惩罚调度和消息通报,消除了手动管理并发锁和网络通讯的需求。
  • 程度扩展:当系统需要处理惩罚更多对话或更高并发时,添加Silo节点可以扩展智能体实例并自动均衡负载。
5.2 GAgentBase设计与事故驱动架构



  • GAgentBase<TState, TStateLogEvent>

    • 继续JournaledGrain<TState, StateLogEventBase<TStateLogEvent>>,天然具备事故溯源本领。
    • 通过PublishToAsync/SubscribeToAsync等方法,允许智能体自由组合和交互,形成多对多或多级事故流拓扑。

  • EventWrapper

    • 为所有事故添加ID、时间戳和上下文等元数据,便于审计和调试,避免传统“黑箱AI”问题。

5.3 低代码/无代码编排与可视化






  • 拖放流程设计:用户可以在仪表板上拖放智能体节点、配置事故路由并设置模型计谋,而无需编写复杂的后端代码。
  • 实时监控与日志重放:集成事故溯源日志,允许通过aevatar仪表板查看任何时刻的事故序列或智能体状态,资助业务优化和维护故障排查。
5.4 可观测性与监控



  • 分布式追踪:集成OpenTelemetry、Jaeger或Zipkin,可视化跟踪跨智能体/Grain的调用链。
  • 指标与警报:收集系统指标(如QPS、延迟、错误率等),并基于Prometheus/Grafana实现实时警报。
  • Orleans仪表板:可选的内置Orleans仪表板,显示运行时数据(如Grain激活数目、消息处理惩罚速率等)。

  • 关键特性
6.1 多模型并行处理惩罚/动态切换



  • 根据业务需求自动(或手动)在差别LLM之间切换。
  • 可以或许分配多个模型同时处理惩罚子任务并合并结果。
6.2 高级任务编排与协作



  • GAgent提供基于事故的协作机制,允许多个智能体并行处理惩罚复杂业务流程。
6.3 RAG集成



  • 毗连向量数据库/文档搜刮引擎,使智能体可以或许从大规模知识库中检索并天生答案。
6.4 跨平台扩展



  • 通过插件与Telegram、X、Slack等平台集成,快速构建多渠道聊天/通讯场景。
6.5 开辟者与非开辟者友好



  • 面向开辟者:提供可编程的插件框架。
  • 面向非技能职员:通过仪表板的低代码/无代码管理,快速上手。

  • 用例



7.1 多智能体协作/自动化



  • 跨部门智能体:

    • Finance Agent(财政智能体)自动处理惩罚报销工作流程
    • HR Agent(人力资源智能体)负责简历/履历筛选
    • IT Agent(IT智能体)管理工单
    • 各智能体可相互通知事故或汇总审批结果

  • 低代码管理:



      • 用户可在 aevatar Dashboard 中配置流程并设置触发条件
      • 智能体在接到指令后,会根据事故流程自动实行





以上基于任务的编排,使 G‐agents(G-智能体)既能独立运行又可无缝协同,充分利用各自的专业本领,更高效地完成复杂目标。
7.2 多语言客服/社交媒体智能体



  • Telegram/X 适配:

    • 可部署多个智能体举行交互
    • 支持多种通讯渠道与多语言服务

7.3 区块链/金融/制造业中的行业应用



  • 智能合约分析:

    • 智能体从区块链中获取智能合约文本
    • 实行风险检测和语言剖析
    • 发现异常时,向运营智能体推送警示

  • 数据驱动的决议:

    • 在制造行业,智能体可实时分析 IoT 传感器数据
    • 并结合 LLM(大型语言模型)提供故障诊断或生产建议


  • 当前的 AI 框架格局
8.1 对比表:aevatar intelligence x ElizaOS x G.A.M.E

对比方向
aevatar intelligence
ElizaOS
G.A.M.E
主要上风(Key Strength)

     

  • 用户无需编写代码或少量代码即可利用
  • 各个Agent能按照需求、复杂度各自以差别LLM驱动并协作
  • 设定Agent协作的逻辑、协作的流程
  • 能回放事故,以分析Agent的工作流程
     

  • 功能集与插件集不断增长
  • 完全可定制并可控

     

  • 低代码、低复杂度的上线方式
本领(Capabilities)

     

  • 差别语言模型驱动的Agent们可以同时协作
  • Agent和工作流可以轻易创建、复制、调整、扩展

各个Agent只能同时利用同一种语言模型协作,之间目前无法交互、协作、团体做决议

各个Agent只能同时利用同一种语言模型协作,之间目前无法交互、协作、团体做决议
多语言模型(LLM)编排
通过 AutoGen 举行多LLM编排,适用于在任何类型的应用中举行复杂推理和决议
仅限于单一模型的 API 集成,没有多LLM自动化,不具备跨应用的灵活性
针对假造世界中的自然语言交互举行了优化,不适用于通用型应用
框架设计(Design)
模块化+延展性插件+动态集群管理 系统
模块化+延展性插件 系统
模块化+ 环境无关性 (environment agnostic)
目标用户(Target Audience)
终端用户与技能型开辟者均适用
技能型开辟者
非技能型用戶
编程语言(Coding Language)
无代码 或 低代码(no-code or low-code)
TypeScript/JavaScript
低代码 (Low-code)
可扩展性 (Scalability)

     

  • 利用 Orleans,一个结合了微服务和 Actor 模型的分布式框架,可针对大规模署理网络实现可扩展性和高可用性。
  • 基于容器化部署,利用 Kubernetes 实现跨云本领、自动伸缩、高可用性和高并发。
     

  • 利用 Node.js,多历程架构,但缺少分布式编程模型。

     

  • 依赖于 Photon 或 SpatialOS 之类的游戏专用后端来实现实时性能。

用例(Use Cases)

为区块链和金融等行业中的通用、可扩展、多范畴逻辑而构建

为较小的网页项目和社区驱动的原型开辟而构建

为游戏和元宇宙场景(包含通证经济集成)而构建
云原生 & DevOps (Cloud Native & DevOps)
先辈的云原生 Kubernetes 部署,通过 DevSecOps & GitOps 提供强大的安全性
专注于速度,但缺乏广泛的自动化和合规机制

专注于性能,但未提供完备的云原生工具

维护 (Maintainability)

Agent-as-a-Service 通过Plugin举行功能迭代,无须用户自己部署服务。优化了对Agent开辟和部署的操纵。
Supabase 借助其后端即服务(Backend-as-a-Service)平台,为开辟运维提供易用的部署方式

未确定 —— 闭源

代码获取 (Code Access)
开源
开源
闭源(黑盒)
平台集成 (Platform Integrations)

     

  • Twitter
  • Telegram

     

  • Discrod
  • Twitter
  • Telegram
     

  • Discrod
  • Twitter
  • Telegram
8.2 技能与商业价值

强大的多语言模型协作


  • 允许在同一个业务流程中调用多个大型语言模型
  • 优化成本与性能
易用性


  • aevatar Marketplace 提供低/无代码编辑器
  • 大幅缩短智能体开辟与运营周期
高并发与可追溯性


  • 基于 Actor + Event Sourcing
  • 系统可轻松处理惩罚数万级并发操纵
  • 所有交互汗青可回放并举行审计
合规与安全


  • 结合云原生 & DevSecOps & GitOps
  • 在 Kubernetes 中实现自动化部署
  • 确保安全与合规要求

  • 路线图
9.1 短期规划

[table][tr][td] Teams
[/td][td] Done
[/td][td] Phase 1
[/td][td] Phase 2
[/td][/tr][tr][td=1,3] aevatar-framework

[/td][td]
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

锦通

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表