ToB企服应用市场:ToB评测及商务社交产业平台

标题: 基于单机最高能效270亿参数GPT模型的文本生成与明确 [打印本页]

作者: 雁过留声    时间: 2024-8-3 22:48
标题: 基于单机最高能效270亿参数GPT模型的文本生成与明确
概述

GPT模型能较好的处理文本生成范畴的各种任务,好比文本补全,自由问答,完形填空,写作文,写摘要,写小说,写诗歌等等。近来火爆全网的人工智能产物ChatGPT也是以GPT文本生成模型为底座。虽然GPT大模型作用在这些应用范畴的效果很好,但是练习成本非常高。以OpenAI推出的1750亿的GPT-3为例,在1024张A100GPU上预估必要34天,一万亿参数的GPT-3在3072张A100显卡上也至少必要84天;微软/英伟达连合推出的5300亿的NLG模型,在2048张A100显卡上耗时了3个月的练习时间才能达到比较好的收敛效果。

针对GPT基础模型参数目大,练习&推理硬件资源斲丧过高等问题,基于MoE的希罕化练习是现在最具竞争力的降本增效途径。MoE的全称是Mixture of Experts,其中的Expert对应的是Transfomrer模型的MLP层,在练习的时间从多个MLP中选取一个MLP进行激活(如下图所示)。这意味着模型可以在不增加计算强度(FLOPS/Bytes)的情况下,通过增加MLP模块的数目来增加模型参数目级,进而提拔模型在下游任务上的泛化性能。采用MoE后的希罕Transformer模型和同等质量(验证集loss以及zeroshot nlu下游任务性能)的稠密模型相比有将近1.2倍的练习吞吐性能提拔,1.3倍的推理吞吐性能提拔。我们在希罕架构总体设计的时间,选择让MoE跟纯Transformer Decoder架构的GPT进行有机连合。缘故原由是MoE跟Decoder连合效果通常会好于跟Encoder的连合效果。具体来讲,Encoder是通过随机masking的方式学习语言模型,而这种被随机masked的token会让expert的路由选择出现不平衡。另一方面,思量到Decoder类的GPT模型比Encoder类的Bert模型有更广泛利用场景,因此我们采用GPT+MoE的技术架构门路,探索单机最高能效的绿色低碳GPT大模型练习&推理软硬一体化适配技术在中文文本生成场景的落地可行性。
基于当前比较成熟的分布式MoE专家路由选择技术,采用Switch Transformer[2]中的top-1路由机制。每个Expert根据如下的softmax函数被赋予一个概率值,取概率最高(top-1)的谁人Expert当作网络的FFN层。其中W_r是做路由选择时必要学习的参数。

GPT-MoE练习&推理能效分析

基础预练习模型练习&推理性能分析

任何一种稠密(Dense)的GPT模型,都有一种效果与之对应的练习&推理速度更快的希罕(MoE)GPT模型。我们的目的是在受限硬件好比单机条件下找到这种GPT-MoE模型设置,然后通过对MoE算法进行改进来进一步提拔它的练习能效。我们通过对比稠密&希罕模型的练习&推理性能,来发现与稠密模型等价的高能效希罕模型。
8种GPT模型的参数目,模型布局,练习超参数如下表所示:
GPT模型参数目LayersHeadshidden sizeLRBatch of Tokens
1.3B Dense1.3B243220482e-41M
2.7B Dense2.7B323225601.6e-41M
3.6B Dense3.6B303230721.6e-41M
0.35B+MoE-646.7B241610243e-40.5M
1.3B+MoE-3213B243220482e-41M
1.3B+MoE-6427B243220481.6e-41M
2.7B+MoE-6456B323225601.6e-41M
3.6B+MoE-6475B303230721.6e-41M
如下图所示,1.3B+MoE32/64模型在雷同的step下对比1.3B dense体现出更低的验证集loss,其中1.3B+MoE-64模型的loss甚至低于2.7B dense模型

5个模型中,0.35B+MoE-64的练习吞吐速度最快,是其他模型的2倍左右。其余四个模型中,吞吐速度较高的是1.3B dense和1.3B+MoE-32,1.3B+MoE-64和2.7B dense的速度相近。如下图所示:

推理吞吐速度方面,1.3B Dense的显存斲丧最少,0.35B+MoE64的耽误最低。
input_len = 20
output_len = 128
batch_size = 1
模型latency (ms)memory (MB)num of gpus
1.3B Dense399.6694761
2.7B Dense753.37173401
3.6B Dense777.54225581
0.35B+MoE64356.22157721
1.3B+MoE32581.34332941
1.3B+MoE64586.1857880

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4