云计算如何创芯:“逆向工作法”的性感之处

饭宝  金牌会员 | 2024-7-13 11:26:03 | 来自手机 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 700|帖子 700|积分 2100

在整个云计算领域,能让芯片规模化的用起来,是决定造芯是否成功的天花板。在拉斯维加斯的亚马逊云科技2023 re:Invent则是美满解释了这一论调。
亚马逊云科技2023 re:Invent开幕前两个小时,有一场小型的接待晚宴,《星期日泰晤士报》南非站记者Arthur Goldstuck谈到:“我们大概会眼见最重要的一场re:Invent,这次亚马逊云科技的技能发布,在将来五年都会是极具意义的。

参与者们好奇,在生成式AI几乎席卷一切的配景下,一个处于领导者地位的云厂商,将会向外界讲出怎样的人工智能故事?
假如站在将来看当下,生成式AI大概是一场大型马拉松,但亚马逊云科技现在就已经在勾勒出它的地图。在亚马逊云科技CEO Adam Selipsky长达两个半小时的演讲中,一张“生成式AI技能堆栈图”图贯穿了整场。


亚马逊云科技“生成式AI技能堆栈图”(Generative AI Stack)
从上图可见,亚马逊云科技搭建了三层AI堆栈:最底层是用于练习和推理的「根本办法层」,这里包括一些亚马逊云科技的自研芯片;中间层是微调大模型或根本模型需求的「工具层」;最上层是「生成式AI应用层」,这里包括此次新推出的生成式AI助理Amazon Q。
概括而言,亚马逊云科技正在构建一种范式,去尽大概匹配这个时代下的更多客户的更多需求,正如Adam Selipsky所说——“我们在用一种跟传统完全不同的方式探究生成式AI概念”。
不过,正所谓见微知著,我们决定将「芯片」,作为观察本年亚马逊云科技re:Invent新发布的切入点。


摄于2023 re:Invent一角
01
十年自研,逆向造芯
很多人了解亚马逊云科技,知道它是环球领先云厂商,构建底层软件的本领非同一般。但大家大概不那么了解的是,亚马逊云科技还是一个在芯片及硬件层有深厚技能底蕴的公司。
早在十年前的2013年起,亚马逊云科技就开始自研芯片,至今已形成了一个芯片全家桶,包括四个系列:


  • 构成云服务技能底层焦点的虚拟化芯片Amazon Nitro
  • 通用处理器芯片Amazon Graviton
  • 用于呆板学习的“练习”芯片Amazon Trainium和用于呆板学习的“推理”芯片Amazon Inferentia
而且现实上,近年来亚马逊云科技一直在年中举行“亚马逊云科技硅芯片创新日”,与产业交换相干创新。就在本年6月的2023年芯片创新日,Amazon EC2副总裁Dave Brown回想起2012年,其时亚马逊云科技是如何进入芯片设计的故事。一晃,已是十年。
他描述了一群领导者,包括 Peter DeSantis 和 James Hamilton,如何设想“增长一个硬件设备来增强亚马逊云科技的安全性和性能”——这个简朴的想法,开启了一个全新的时代,带来了多种定制的芯片产品。
而在此次re:Invent,就有两款亚马逊云科技自研芯片有了庞大升级,分别是:


  • Amazon Graviton4
  • Amazon Trainium2


Amazon Graviton4 和Amazon Trainium (原型) (Business Wire提供)
Amazon Graviton系列芯片,无疑是芯片发展史上浓墨重彩的发明。提起ARM架构的云端芯片,大家似乎不生疏。但假如把时钟拨回到6年前,虽然其时业界已经通过iPhone,认可了ARM架构是移动端CPU的好选择。但是,开辟并规模化商用ARM架构的服务器CPU,还是前无古人的创举。
而亚马逊云科技就是那个开创者,Amazon Graviton第一代诞生于2018年,“现在接近10%的服务器总贩卖额是ARM,其中很大一部分来自亚马逊云科技。在CPU方面,这家公司做得很好。”Bernstein Research高级分析师Stacy Rasgon在一次接受采访中如是说。
本次大会,Amazon Graviton已经更新到第四代,但依然没有放慢高速增长的步伐。据悉,与前一代相比,Amazon Graviton4性能提升30%,独立焦点增长50%,对于高并发等应用所需要的内存带宽,更提升75%,并且,还进一步通过高速物理硬件接口的完全加密提升了安全性。


熟悉造芯的朋友们都知道,设计和成功流片一颗新架构的芯片只是造芯的基本功,而能让芯片规模化的用起来,才是决定造芯是否成功的天花板。
在管理理念上,亚马逊内部有一招很特别的法门,叫做“working backwards逆向工作法”。亚马逊云科技的成功造芯,或许正与此有关。
关于“逆向工作法”,曾经贝索斯在2008年致亚马逊公司股东的信中所做解释大意如下:假如我们能很好了解顾客需求,并深信这种需求是有长期价值。那么,我们的一贯做法是——耐烦探索,直至找到解决方案……从顾客需求出发的“逆向工作法”(Working backwards)与“技能导向法”(skills-forward)形成鲜明对比。
简朴来说,逆向工作法,就是先研究需求,再根据需求创造相应工具;而技能导向法,则是手里拿着一个锤子,看什么都像钉子。


亚马逊云科技的造芯过程,某种程度就遵照了逆向工作法。以亚马逊云科技最早的硬件系统Amazon Nitro为例。它的出现,就是为了解决Xen架构的虚拟化系统的资源斲丧问题——服务器中大概只有七成的资源可以或许提供给用户。而Amazon Nitro针对虚拟化损耗,提出定制化硬件的思路,最终提供了裸机的性能。
而在与用户应用关系度更精密的CPU层面,亚马逊云科技提供了针对不同负载优化的计算实例范例,来推动芯片的落地应用,从计算麋集型、内存麋集型,再到存储、IO敏感、吞吐敏感、网络延迟敏感等,一应俱全。
针对最新的Amazon Graviton4,亚马逊云科技就提供了Amazon EC2 R8g内存优化性实例,可以提升客户运行高性能数据库、内存缓存、大数据分析等工作负载的效率。R8g实例相比当前一代R7g实例提供更大的实例大小,虚拟处理器(vCPU)以及内存均提升了3倍。这让用户可以处理更大量的数据、更大规模的工作负载、更快的获得运行结果,并低落总拥有成本。基于Amazon Graviton4的R8g实例现已提供预览版,并将在将来几个月推出正式可用版。
对于Amazon Graviton的设计方式,同样是从逆向工作法开始的,Amazon Graviton自发布以来,它的设计出发点就是用户的现实工作负载,而不是测试软件的benchmark。通过一个“六边形性能分析”可以看到,Amazon Graviton4相比上一代是如何在数据应用中提升性能。这些性能的提升不仅仅存在于re:Invent上,更在客户每次用现实工作负载来测试Amazon Graviton芯片中。


Amazon Graviton4的六边形性能分析,以及在Amazon Graviton3和Amazon Graviton4上运行的MySQL示例
据统计,目前由Amazon Graviton支持的Amazon EC2实例种类达150多个,已经构建的Amazon Graviton处理器数量凌驾200万个,并拥有凌驾5万客户,包括Datadog、DirecTV、Discovery、Formula 1 (F1)、NextRoll、Nielsen、Pinterest、SAP、Snowflake、Sprinklr、Stripe以及Zendesk等。例如SAP,在使用Amazon Graviton服务之后,成本低落了35%,且分析速率更快,同时减少了45%的碳排放量。
不过我猜,Arthur Goldstuck和很多人在内,在re:Invent期间更关注的一颗芯,会是Amazon Trainium系列,因为这是面向模型“练习”的芯片,而这部分,算力的瓶颈问题众人皆知。
此次大会发布的Amazon Trainium2,是一款专为根本模型和大模型而生的产品,为拥有数千亿甚至数万亿个参数的根本模型练习做了优化,相比第一代Amazon Trainium(发布于2020年12月),性能提升4倍,内存提升3倍,能效(每瓦性能)提升2倍,几乎全线凌驾摩尔定律所界说的范畴。


同样,亚马逊云科技也有类似的实例推动新系列的落地。Amazon EC2 Trn2实例就采取了Amazon Trainium2,一个单独实例中包罗16个Amazon Trainium芯片,Trn2实例可帮助在下一代EC2 UltraCluster中扩展到10万个Amazon Trainium2,通过搭配Amazon Elastic Fabric Adapter (EFA) 网络互连,提供65 ExaFlops超算级性能。基于此,客户只用几周就能练习出有3000亿个参数的大模型,这约是OpenAI的大模型GPT-3大小的1.75倍。
在这场发布的间隙,在采访中被问道“造芯对于客户带去什么价值”时,亚马逊云科技环球汽车及制造行业专业服务团队负责人Jon Allen表示:
“客户想要更快的、更便宜的东西,这是基本原则。”无疑,这也是非常“逆向工作法”的一个回答。他以汽车业务举例,“真正练习一辆主动驾驶汽车,起码得开车跑900万英里,假如用传统方式做数据练习,很多OEMs客户大概根本负担不起”。
02
生成式AI大时代,有自研,但不影响联盟
虽然亚马逊云科技一直持续自研芯片,但是封闭并非这家公司的基因。而在生成式AI时代起决定性作用的另外一家巨头,英伟达首创人兼CEO黄仁勋穿着标志性皮衣,甚至作为此次re:Invent的首位上场的合作伙伴,与Adam Selipsky进行了一场对话,在对话中黄仁勋提到
“生成式AI正改变各种云端负载,为多元内容创作在底层注入加速计算动能。我们的共同目标是,为每个客户提供具有成本效益的先辈生成式AI,为此英伟达与亚马逊云科技在整个计算堆栈睁开合作,横跨AI根本办法、加速库(acceleration libraries)、根本模型、以及生成式AI服务。”


在真正的创新者面前,重要的不是是否有竞争,而是两边是否有能满足客户需求的本领,显然,亚马逊云科技和英伟达都在对方身上看到了这一点。
“GPU和GPU之间用NV link毗连方式让我们的GPU可以直接存取CPU的影象体,CPU可以直接使用GPU的影象体,这是非常快地进行的。在更大的网络中,通过Grace Harper链接在一起。Amazon Nitro可以将GH酿成一颗巨大的虚拟化的GPU。这么多的实例,我们可以跟亚马逊云科技EFA兼容起来用,这也是非常快速的速率来运用的,全部单元都可以酿成超级的集群。”黄仁勋说道。
约13年前,亚马逊云科技是第一家把英伟达GPU芯片带到云上的云厂商,而接下来,两边还将扩大合作,主要包括四个方面


  • 亚马逊云科技成为第一家在云端配备英伟达GH200 Grace Hopper超级芯片的云厂商。英伟达GH200 NVL32多节点平台为运用英伟达NVLink与NVSwitch技能毗连32个Grace Hopper Superchips组成的实例。此平台将在Amazon Elastic Compute Cloud(Amazon EC2)实例上可用,与亚马逊云科技的网络相连,由虚拟化(Amazon Nitro System)及超大规模集群(Amazon EC2 UltraClusters)提供支持,让共同客户能扩展至数千个GH200超级芯片。
  • 在亚马逊云科技平台上将推出英伟达DGX Cloud NVIDIA AI“练习即服务(AI-training-as-a-service)”。此服务将是首个配置GH200 NVL32的DGX Cloud,为开辟者提供单一实例中最多的共享内存。在亚马逊云科技上运行的DGX Cloud将加速练习含有凌驾1兆参数的尖端生成式AI与大型语言模型。
  • 英伟达与亚马逊云科技合作推动Project Ceiba,构建环球最快的GPU驱动的AI超级计算机,这是一个配备GH200 NVL32与Amazon EFA互连技能的大规模系统,该系统摆设在亚马逊云科技上,为英伟达研发团队提供服务。该超级计算机将亘古未有地配置16384颗英伟达H200超级芯片,能处理65 exaflops(权衡超级计算机性能的单元,每秒浮点运算可达一百亿亿次)速率等级的AI运算,英伟达使用该超级计算机推动其全新生成式AI的创新。
  • 亚马逊云科技将推出三款Amazon EC2实例:P5e实例配置英伟达H200 Tensor Core GPUs,针对大规模与尖端生成式AI及HPC高性能运算工作负载;分别配置英伟达L4 GPUs与英伟达L40S GPUs的G6与G6e实例,可运行包括AI微调、推理、绘图以及影片工作负载等广泛应用。G6e实例特别实用于开辟3D工作流程、数字孪生、以及其他使用英伟达Omniverse的应用,用来毗连与构建各种生成式AI的3D应用。
提到大模型,总有人以为这是巨头的游戏。但是Jon Allen不这么看,“对中小企业和创业公司来说,我们的AI芯片带给他们与宝马等汽车巨头类似的计算本领。十年前的硅谷,只有十几人的小公司根本无法负担高昂的算力(与大玩家竞争)。现在不一样了,AI芯片确实创造了新时机。“

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

饭宝

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表