AI 已被广泛视为推动行业进步的关键力量,其在各行业的落地步伐加快。企业在构建 AI 应用开辟过程中经常谋面临 AI 技能门槛过高、试错周期过长、GPU 资源昂贵且弹性能力不敷、缺乏配套工具、业务与模型的开辟运维过于割裂、缺乏定制化能力等挑战,成为企业构建 AI 应用的『绊脚石』。开辟者期待 AI 应用构建能够更加智能、便捷、简单,CAP 应运而生。
CAP:Serverless + AI 让应用开辟更简单
云应用开辟平台 CAP(Cloud Application Platform)是阿里云推出的一站式应用开辟和生命周期管理平台。应用开辟者可以通过 Serverless 架构来构建容器化、高弹性、免运维的云上应用,也可以通过 AI 大语言模型推动云上应用徐徐升级为智能化应用,而 CAP 的应用开辟范式正是结合了 Serverless 和 AI 的两者优势,帮助开辟者更高效地相应市场变革,快速构建高可用、低延迟的云上应用。
CAP 提供了丰富的 Serverless +AI 应用模板、先进的开辟工具和企业级应用管理功能,帮助个人和企业开辟者专注于业务场景,快速构建并一连迭代云上应用,可显着进步研发、部署和运维效率。
云应用开辟平台 CAP 具备极速体验、生态集成、更低成本以及机动组装等特点,Serverless 与 AI 紧密结合,让存量应用智能化更便捷、让 AI 应用开辟更简单。
极低成本模型托管服务:基于 Serverless GPU 算力模型服务,平均成本低落 60%。
流程式开辟先进工具:基于云工作流 AI Studio 开辟能力,最高效率提升 90%。
一键极速创建 AI 应用:海量高质量应用模板,面向差别客群,支持一键极速创建 AI 应用,解决 AI 应用开辟者无从下手的窘境
随着 AI 的爆发式发展,出现了不少以大语言模型“自底向上”构建全新应用的 LLMOps AI 应用开辟平台。LLMOps 目标是管理和优化大语言模型(如通义千问、GPT 等)的开辟、部署和维护,使得大语言模型被更多人更合理地使用。而 DevOps 目标则是管理软件开辟项目的一连集成(CI)、一连交付(CD)、自动化测试等,使得软件可以更快、更可靠地发布。LLMOps 显着区别于DevOps,因此,依托于DevOps开辟范式的存量应用并无法直接以 LLMOps 开辟范式完成应用的智能化升级改造。 CAP 是首款将 DevOps 和 LLMOps 开辟范式结合,以云上应用开辟视角,面向“Serverless & AI”领域的一站式开辟、构建、部署平台。CAP 以开辟者最认识的 DevOps 开辟范式为核心,辅以函数计算 FC GPU 提供的 Serverless LLMOps 极简体验,以业务视角“自上而下”探索应用和模型的协作,帮助开辟者专注业务创新,让领域模型托管和云上应用构建更简单。
立刻体验 CAP
进入CAP产品详情页 https://www.aliyun.com/product/cap,点击“立刻体验”进入控制台。
让我们以流行的RAG应用为例,看看 CAP 如何实现 Serverless AI 应用开辟:
Step1:通过 CAP 探索 Serverless AI 应用模板,选择“基于流程的 RAG 应用”;