一文彻底搞懂大模型 - GPT和LlaMA的模型架构
https://img-blog.csdnimg.cn/img_convert/fe4b693b5b71aa2db2b85fea396061f0.pngGPT vs LlaMA
GPT与LlaMA,作为大语言模型的两大巨擘,均基于Transformer架构却各有千秋。GPT系列以强大的生成本领著称,通过不断增大的参数规模引领复杂语言与推理使命的前沿;而Llama则以开源姿态,通过技术创新提拔模型性能,预示着多模态扩展的将来,为AI生态的多样性和开放性贡献力量。
https://img-blog.csdnimg.cn/img_convert/8a411139801f43c9f35ddd743a076b27.jpeg
GPT vs LlaMA
一、GPT
什么是GPT?GPT模型,全称为Generative Pre-trained Transformer,是由OpenAI团队开发的一种基于深度学习的天然语言处置惩罚(NLP)模型。该模型通过无监督学习的方式,对大规模文本举行学习和抽象概括,进而通过微调的方式用于各种特定的天然语言处置惩罚使命。
https://img-blog.csdnimg.cn/img_convert/5dce21d680c6349c38f3464337e1dd05.png
GPT
GPT的版本迭代:OpenAI GPT模型自发布以来,已履历了多个版本的迭代升级,每个版本都在前一版本的底子上举行了改进和优化。
https://img-blog.csdnimg.cn/img_convert/af2ca2beec207821271ed7293a1835e3.jpeg
GPT的版本迭代
[*] GPT-1:这是GPT系列的第一个版本,发布于2018年。GPT-1具有1.17亿个参数,利用Transformer的Decoder布局作为底子,并采用了预练习的语言模型。它在多项天然语言处置惩罚使命上取得了很好的表现,如文本生成、呆板翻译和阅读明白等。
[*] GPT-2:GPT-2是GPT系列的第二个版本,发布于2019年。相比于GPT-1,GPT-2在模型规模和预练习数据上都有了明显的提拔。GPT-2的参数数量增加到了15亿,并利用了更多的预练习数据。这些改进使得GPT-2在生成使命上表现出了更强的创造力和语言明白本领,能够生成更长、更连贯的文本。
[*] GPT-3:GPT-3是GPT系列的第三个版本,发布于2020年。GPT-3具有惊人的1750亿个参数。这一巨大的模型规模使得GPT-3能够处置惩罚更加复杂和多样的天然语言处置惩罚使命,包括文本生成、翻译、问答和文天职类等。GPT-3在预练习过程中利用了大量的互联网文本数据,进一步提拔了其性能和泛化本领。
[*] GPT-4:GPT-4是GPT系列的第四个版本,发布于2023年3月。GPT-4是一款具有广泛应用的大型、多模态模型。与之前的版本不同,GPT-4是第一个能够同时接收文本和图像的多模态模型。它不仅可以接收文本输入,还能接收图像输入,并生成相应的文本输出。GPT-4在各种专业和学术基准测试中表现精彩,表现出其强大的天然语言处置惩罚本领和多模态明白本领。
https://img-blog.csdnimg.cn/img_convert/88f8ad638ccbfab5190757aebd72c1ee.jpeg
GPT的版本迭代
GPT2的架构:GPT-3及以后的版本接纳了闭源的策略,模型的具体实现细节、练习数据、超参数配置等关键信息并未对外公开。
GPT-2的架构主要基于Transformer的解码器(Decoder)部分,并通过堆叠多个Decoder层、引入自注意力机制和位置编码、利用残差连接和层归一化等技术本领来构建模型。
https://img-blog.csdnimg.cn/img_convert/5de79b8ad36224c97414835d4c070024.png
GPT-2的架构
1. 堆叠Transformer的Decoder
[*] GPT-2相沿了Transformer的解码器部分,通过堆叠多个Decoder层来构建模型。每个Decoder层都包罗了自注意力(Self-Attention)机制和位置编码(Position Encoding)等关键组件。
[*] GPT-2的堆叠层数可以根据具体需求举行调整,但通常包括多个(如12层)Decoder层,以提供足够的深度来捕捉文本中的复杂依赖关系。
2. 自注意力机制(Self-Attention)
[*] 自注意力机制是Transformer和GPT-2中的核心组件,它允许模型在处置惩罚文本时同时关注到文本中的其他部分。
[*] 在GPT-2中,自注意力机制通过盘算输入序列中每个单词与其他单词之间的相关性来实现,从而资助模型明白文本的全局上下文信息。
3. 位置编码(Position Encoding)
[*] 由于Transformer模型本身并不包罗任何关于单词位置的信息,GPT-2引入了位置编码来弥补这一缺陷。
[*] 位置编码是一种将单词在序列中的位置信息嵌入到模型中的方法,它使得模型能够区分不同位置的单词并明白它们的次序关系。
4. 残差连接(Residual Connections)和层归一化(Layer Normalization)
[*] GPT-2在Decoder层之间利用了残差连接和层归一化技术,以进步模型的练习稳定性和收敛速率。
[*] 残差连接允许模型在通报信息时保留前一层的部分输出,从而避免了深层网络中的梯度消失或梯度爆炸题目。
[*] 层归一化则通过对每一层的输入举行归一化处置惩罚,使得模型的每一层都能够在相似的尺度上工作,进一步进步了模型的稳定性和性能。
5. 输出层
[*] GPT-2的输出层通常包括一个线性层(Linear Layer)和一个Softmax层,用于将Decoder层的输出映射到词汇表上的概率分布。
[*] 通过这种方式,GPT-2可以根据输入的上文生成对应的下文单词,从而实现文本生成使命。
https://img-blog.csdnimg.cn/img_convert/1a711b2428c562f405643c89c76ca8c8.png
GPT-2的架构
二、LlaMA
**什么是LlaMA?**LLaMA的全称是Large Language Model Meta AI,直译为“大语言模型元AI”。由于“Llama”在西班牙语中意为“羊驼”,因此社区也将其昵称为羊驼系模型。
LLaMA于2023年2月由Meta AI发布,是该系列的初代模型。随后,Meta AI又相继推出了LLaMA2和LLaMA3等升级版本。
[*] 练习数据:LLaMA的练习数据来源于公开数据集,无任何定制数据集,确保了其工作的开源兼容性和可复现性。整个练习数据集在token化之后大约包罗1.4T的token。随着版本的迭代,练习数据的规模不断增加,LLaMA3甚至基于高出15万亿个token的数据举行预练习。
[*] 模型规模:LLaMA提供了多种规模的版本,包括7B、13B、70B和405B(4050亿)等不同参数量的模型。这些模型可以根据具体的应用场景和盘算资源举行选择。
[*] 性能优异:LLaMA在多个基准测试上表现精彩,甚至能够媲美或超越一些参数量更大的模型。比方,具有130亿参数的LLaMA模型在大多数基准上可以胜过GPT-3(参数量达1750亿)。
https://img-blog.csdnimg.cn/img_convert/ec62abd8c47f6abd4c01eaf4e774ccb7.png
LlaMA
LlaMA的架构:LLaMA模型的整体架构与GPT-2等Transformer模型类似,但针对稳定性和性能举行了多项改进。它采用了前置层归一化(Pre-normalization)、RMSNorm归一化函数、SwiGLU激活函数以及旋转位置嵌入(RoPE)等关键技术。
https://img-blog.csdnimg.cn/img_convert/4a47574fc94c20d06f589278669de528.png
LlaMA的架构
[*]前置层归一化(Pre-normalization)
[*]为了提拔练习时的稳定性,LLaMA将归一化操作从Transformer子层的输出移到了输入。具体地,第一层归一化被设置在多头注意力层之前,第二层归一化被移动到全连接层之前。同时,残差连接的位置也调整到了多头注意力层与全连接层之后。这种设计有助于淘汰梯度消失或爆炸的题目,从而进步练习稳定性。
[*]RMSNorm归一化函数
[*]LLaMA在归一化过程中利用了RMSNorm(Root Mean Square Layer Normalization),这是一种基于均方根(RMS)的归一化方法。RMSNorm不依赖于均值,而是通过盘算特征向量的RMS值来举行归一化。这种方法在盘算上更为简洁,且在某些情况下可以提供类似甚至更好的性能。在LLaMA中,RMSNorm还加入了可学习的缩放因子和偏移参数,以进一步进步模型的灵活性。
[*]SwiGLU激活函数
[*]LLaMA利用了SwiGLU(Swish-Gated Linear Unit)激活函数,这是Shazeer在文献中提出的一种激活函数,并在PaLM等模型中得到了广泛应用。相较于传统的ReLU函数,SwiGLU在很多评测数据集上表现出了更好的性能。在LLaMA中,全连接层利用了带有SwiGLU激活函数的盘算方式,这有助于提拔模型的非线性处置惩罚本领。
[*]旋转位置嵌入(RoPE)
[*]LLaMA没有利用传统的绝对位置编码(如BERT中的sin/cos位置编码),而是采用了旋转位置嵌入(RoPE)。RoPE借助了复数的思想,通过绝对位置编码的方式实现了相对位置编码的效果。这种方法能够更有效地捕捉序列中的位置信息,从而提拔模型在处置惩罚序列数据时的性能。
如何学习AI大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和本领了 。我已将紧张的AI大模型资料包括AI大模型入门学习头脑导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
https://img-blog.csdnimg.cn/img_convert/d7999e4404752877fcd012a13b81ee55.jpeg
一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从底子到前沿,掌握人工智能的核心技能!
https://img-blog.csdnimg.cn/direct/73960f44794245eb988e286620c38b59.png
二、640套AI大模型报告合集
这套包罗640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
https://img-blog.csdnimg.cn/direct/ecbe365405e6442986e91b29da53efbd.png
三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技范畴的一大热点。这些大型预练习模型,如GPT-3、BERT、XLNet等,以其强大的语言明白和生成本领,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
https://img-blog.csdnimg.cn/direct/f3f83643ea7e4954ad51c4b3099dddc6.png
四、AI大模型商业化落地方案
https://img-blog.csdnimg.cn/direct/de6bd4e8e37c4e61a79c37b2551d466e.png
作为平凡人,入局大模型时代需要持续学习和实践,不断进步自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的康健发展贡献力量。
本文转自 https://blog.csdn.net/weixin_58753619/article/details/141757549?spm=1001.2014.3001.5501,如有侵权,请接洽删除。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]