IT评测·应用市场-qidao123.com

标题: 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码 [打印本页]

作者: 锦通    时间: 2025-3-15 00:26
标题: 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
2025 年是 AI Agent 的元年,我们团队历时 3 个多月,现正式开源Multi-Agent AI 框架,欢迎各位博友前往 GitHub Fork、Star 或提交 PR,共同打造 aevatar.ai 生态。

Github地址: 
aevatar 核心框架: https://github.com/aevatarAI/aevatar-framework 
aevatar平台: https://github.com/aevatarAI/aevatar-station
aevatar 案例: https://github.com/aevatarAI/aevatar-gagents

aevatar.ai,一个同一的多智能体平台,旨在解决跨范畴和多样化工作负载下开辟、部署和管理多种AI智能体的复杂性。通过基于插件的方法和灵活的部署计谋——从基于DLL的加载到容器化和分布式实行框架——aevatar.ai允许用户和开辟者在一个同一的生态系统中无缝集成专业化的AI解决方案。

关键组件包括:aevatar框架,定义了标准化的智能体接口和生命周期管理;aevatar Station,一个集中化的门户和市场,用于智能体发现、插件处理惩罚、请求路由和用户访问控制;以及aevatar Agents,一个包含官方和社区开辟的AI模块的仓库,支持多种任务,如自然语言理解、计算机视觉和保举系统。通过集中化智能体交互和事故流,aevatar.ai减少了集成开销,强制实行一致的安全计谋,并提供强大的监控和日志功能以提高可靠性。

通过其开源、模块化的架构,aevatar.ai既适用于小规模利用,也支持大规模企业部署,具备高并发、自动扩展、智能体重用、沙箱化和审计追踪等功能。这些创新促进了一个可持续的AI生态系统,使组织可以或许快速采取和发展先辈的AI本领,同时让开辟者专注于创建强大、专业化的智能体,而无需担心底子办法和生命周期管理的复杂性。
随着人工智能(AI)技能的快速发展,大型语言模型(LLMs)和智能体的应用已从单一问答交互演变为更高级的本领,如多智能体协作、跨模型相助和复杂业务流程编排。
然而,目前市场上的AI系统普遍面对平台隔离、模型限制、部署复杂和缺乏可观测性等问题,难以满足企业用户对高效、灵活和安全AI协作的需求。


aevatar.ai作为下一代多AI智能体框架的先行者,旨在构建一个跨平台、跨模型的AI智能体生态系统。通过开放的架构、强大的可视化编排本领和云原生部署方式,它赋能开辟者和业务用户在一个系统中同一管理、调度和协调多个智能体,实现“多场景、多模型、多角色”的高效协作。
通过aevatar.ai,我们致力于提供一个灵活、可扩展且符合安全要求的AI解决方案,以推动AI技能的广泛应用和落地。



2.1 AI智能体系统隔离

目前,许多AI智能体被隔离在各自的平台中,缺乏同一的通讯协媾和互操纵性。这使得系统之间难以共享数据或协同工作,限制了AI系统的团体效能,尤其是在需要跨平台协作的场景中。
2.2 单一LLM的范围性

大多数AI智能体依赖于单一的语言模型(如GPT-4或Llama2)。这带来了集中风险;在面对复杂的多步骤任务或多语言场景时,性能大概会受到影响。
单一LLM模型的范围性使得系统无法灵活切换或并利用用多个模型,从而限制了其应用范围和性能。
2.3 检索加强天生(RAG)精度不敷

大多数AI智能体利用检索加强天生从专业知识库中检索信息,但由于信息或文档大概不相干、过时或质量低下,难以实现完美的知识库优化和精确性。
2.4 缺乏事故追踪与可观测性

现有的AI系统通常缺乏对AI智能体内部状态和汗青交互的源头管理。当系统故障或推理异常发生时,难以定位问题并重放事故,增加了维护复杂性和风险。
2.5 高部署与协作成本

传统的AI系统通常需要复杂的安装、配置和维护过程。缺乏用户友好的工作流编排工具,尤其是在多智能体协作场景中,导致开辟和维护成本较高。


3.1 核心:aevatar框架

aevatar框架是aevatar.ai的核心,负责处理惩罚基本处理惩罚逻辑、智能体交互和核心组件。
Orleans“Grains”作为智能体

多智能体

AI集成

通过结合以上所有内容,系统可以扩展大量AI智能体,每个智能体实行专门任务,同时通过分组或子组协调它们以实现更复杂的协作目标。
3.2 顶层:aevatar应用


示例智能体

这些是基于底层多智能体框架构建的面向终端用户的“产物”。每个智能体都可以具有专门的逻辑,毗连外部API,并利用aevatar核心引擎。
3.3 环境(Web 2 / Web 3)

这表现aevatar智能体运行的更广泛环境——既包括传统的Web 2.0环境(如REST API、SaaS服务),也包括Web 3.0环境(如区块链或去中心化服务)。该框架旨在无缝融入这些生态系统。
3.4 LLM集成

在图的右侧,您可以看到主要的LLM(大型语言模型)提供商:

这些LLM通过Semantic Kernel毗连器集成,使每个智能体都能利用自然语言理解、天生和高级推理功能。
3.5 数据与消息层

在框架之上,核心数据与消息技能包括:

这些技能支持高吞吐量的数据摄取、搜刮、缓存和状态管理,对于大规模智能体交互至关重要。
3.6 部署与DevSecOps

用于构建、部署和管理aevatar框架的DevSecOps工具包括:

3.7 多云与安全

末了,支持多云计谋,涵盖:

这确保了平台可以在差别云底子办法上以安全、容错和成本高效的方式运行。
3.8 团体架构


简而言之,aevatar.ai是一个全栈、云原生的多智能体编排框架,利用Orleans实现基于到场者的扩展,集成Semantic Kernel以提供AI功能,并采取全面的DevSecOps管道和多云部署计谋。
3.9 解决上述挑衅



GAgent: 基于grain的智能体
通过分布式到场者模型(基于Orleans)和多智能体管理机制,aevatar.ai实现了多个AI智能体之间的高效互联和复杂事故调度,支持跨平台和跨场景的协作工作流。
aevatar.ai实现了多智能体框架,将AI智能体分别为差别的功能角色。它为多个智能体分配特定职责并将其分组,以在系统中完成用户分配的任务。


aevatar.ai 提供了一个多语言模型并行智能体框架。这克服了单一模型的范围性,支持在差别任务中自由切换或并利用用多个模型,从而提拔系统灵活性和性能。


在多智能体RAG架构下,每个AI智能体代表一个基于特定知识库、检索计谋和天生配置的定制化RAG;这在整个系统中最擅长的范畴提供答案。 通过编排器,用户问题被分配给得当的智能体。大概,也可以并行调用多个智能体,并通过信息整合模块合并答案。这实现了更专业、全面和可扩展的问答或信息天生系统。
多智能体RAG模型支持:
这使得可以或许构建一个可以或许持续天生高质量内容的多智能体RAG平台。


aevatar.ai仪表板提供了低代码/无代码的可视化编排工具,资助用户轻松设计和监控复杂的工作流。这是低落技能门槛的重要一步,使险些任何人都能快速上手创建和个性化AI智能体。


基于云原生的DevSecOps和微服务架构,aevatar.ai提供了弹性扩展和高并发处理惩罚本领,同时确保系统安全性和合规性,满足企业级用户需求。
aevatar.ai 由三个主要组件组成:aevatar框架、aevatar Station和aevatar Agents。它们协同工作,管理多个AI智能体的整个生命周期——从创建到部署再到持续运营


aevatar框架旨在支持AI智能体和事故溯源机制,提供模块化架构以实现可扩展性和可维护性。它利用依赖注入和观察者模式等设计模式来加强灵活性和可扩展性。


设计原则

该框架为开辟AI智能体和事故溯源应用提供了灵活的架构,通过其模块化设计实现轻松集成和扩展。通过遵循设计原则和模式,框架确保在添加新功能时仍能保持可扩展性和可维护性。
到场者模型(Actor Model)

GAgent

事故溯源(Event Sourcing)

CQRS(命令查询职责分离)

aevatar仪表板








Kubernetes部署

DevSecOps & GitOps

安全计谋

团体流程


详细流程

显著特点与上风

5.1 Orleans到场者模型与可扩展性


5.2 GAgentBase设计与事故驱动架构


5.3 低代码/无代码编排与可视化





5.4 可观测性与监控


6.1 多模型并行处理惩罚/动态切换


6.2 高级任务编排与协作


6.3 RAG集成


6.4 跨平台扩展


6.5 开辟者与非开辟者友好





7.1 多智能体协作/自动化


以上基于任务的编排,使 G‐agents(G-智能体)既能独立运行又可无缝协同,充分利用各自的专业本领,更高效地完成复杂目标。
7.2 多语言客服/社交媒体智能体


7.3 区块链/金融/制造业中的行业应用


8.1 对比表:aevatar intelligence x ElizaOS x G.A.M.E

对比方向
aevatar intelligence
ElizaOS
G.A.M.E
主要上风(Key Strength)

     

  • 用户无需编写代码或少量代码即可利用
  • 各个Agent能按照需求、复杂度各自以差别LLM驱动并协作
  • 设定Agent协作的逻辑、协作的流程
  • 能回放事故,以分析Agent的工作流程
     

  • 功能集与插件集不断增长
  • 完全可定制并可控

     

  • 低代码、低复杂度的上线方式
本领(Capabilities)

     

  • 差别语言模型驱动的Agent们可以同时协作
  • Agent和工作流可以轻易创建、复制、调整、扩展

各个Agent只能同时利用同一种语言模型协作,之间目前无法交互、协作、团体做决议

各个Agent只能同时利用同一种语言模型协作,之间目前无法交互、协作、团体做决议
多语言模型(LLM)编排
通过 AutoGen 举行多LLM编排,适用于在任何类型的应用中举行复杂推理和决议
仅限于单一模型的 API 集成,没有多LLM自动化,不具备跨应用的灵活性
针对假造世界中的自然语言交互举行了优化,不适用于通用型应用
框架设计(Design)
模块化+延展性插件+动态集群管理 系统
模块化+延展性插件 系统
模块化+ 环境无关性 (environment agnostic)
目标用户(Target Audience)
终端用户与技能型开辟者均适用
技能型开辟者
非技能型用戶
编程语言(Coding Language)
无代码 或 低代码(no-code or low-code)
TypeScript/JavaScript
低代码 (Low-code)
可扩展性 (Scalability)

     

  • 利用 Orleans,一个结合了微服务和 Actor 模型的分布式框架,可针对大规模署理网络实现可扩展性和高可用性。
  • 基于容器化部署,利用 Kubernetes 实现跨云本领、自动伸缩、高可用性和高并发。
     

  • 利用 Node.js,多历程架构,但缺少分布式编程模型。

     

  • 依赖于 Photon 或 SpatialOS 之类的游戏专用后端来实现实时性能。

用例(Use Cases)

为区块链和金融等行业中的通用、可扩展、多范畴逻辑而构建

为较小的网页项目和社区驱动的原型开辟而构建

为游戏和元宇宙场景(包含通证经济集成)而构建
云原生 & DevOps (Cloud Native & DevOps)
先辈的云原生 Kubernetes 部署,通过 DevSecOps & GitOps 提供强大的安全性
专注于速度,但缺乏广泛的自动化和合规机制

专注于性能,但未提供完备的云原生工具

维护 (Maintainability)

Agent-as-a-Service 通过Plugin举行功能迭代,无须用户自己部署服务。优化了对Agent开辟和部署的操纵。
Supabase 借助其后端即服务(Backend-as-a-Service)平台,为开辟运维提供易用的部署方式

未确定 —— 闭源

代码获取 (Code Access)
开源
开源
闭源(黑盒)
平台集成 (Platform Integrations)

     

  • Twitter
  • Telegram

     

  • Discrod
  • Twitter
  • Telegram
     

  • Discrod
  • Twitter
  • Telegram
8.2 技能与商业价值

强大的多语言模型协作

易用性

高并发与可追溯性

合规与安全

9.1 短期规划

[table][tr][td] Teams
[/td][td] Done
[/td][td] Phase 1
[/td][td] Phase 2
[/td][/tr][tr][td=1,3] aevatar-framework

[/td][td]




欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/) Powered by Discuz! X3.4