论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
软件与程序人生
›
DevOps与敏捷开发
›
《深入浅出LLM 》(一):大模型概念综述 ...
《深入浅出LLM 》(一):大模型概念综述
去皮卡多
金牌会员
|
2024-6-19 21:10:43
|
显示全部楼层
|
阅读模式
楼主
主题
818
|
帖子
818
|
积分
2454
《深入浅出LLM 》(一):大模型概念综述
一、大模型概念
大规模语言模型(LargeLanguageModels,LLM),也称大规模语言模型或大型语言模型,是一种由包含数百亿以上参数的深度神经网络构建的语言模型,使用自监督学习方法通过大量无标注文本进行练习。自2018年以来,Google、OpenAI、Meta、百度、华为等公司和研究机构都相继发布了包括BERT[1],GPT[6]等在内多种模型,并在几乎所有自然语言处理使掷中都体现精彩。2019年大模型呈现发作式的增长,特殊是2022年11月ChatGPT(ChatGenerativePre-trainedTransformer)发布后,更是引起了全世界的广泛关注。用户可以使用自然语言与系统交互,从而实现包括问答、分类、择要、翻译、聊天等从理解到天生的各种使命。大型语言模型展现出了强大的对世界知识掌握和对语言的理解。
一般来说大模型(Pretrained Foundation Model,Large Language Model)满足如下条件:
百亿级别参数目,GPT3 175B,Ernie-3.0 260B,llama 65B,PaLM 540B
具备一定的零示例和少示例推测本领,即预练习之后不需要或者需要少量样本就能解新使命
具备突现本领(emergent ability)
(1)量变引发质变:模型结果随参数目/练习盘算量/练习数据数目&质量增长出现近乎跳变般的提升 (2)不可推测,不能通过小模型的结果外推
自然语言处理发展
下面回首人工智能发展的三个阶段
1.人工智能的⼀个 要目标是让机器能听会说,能理解会思考
2.目前人工智能技术正处在从感知智能到认知智能超过的时间节点
3.自然语⾔处理(NLP)是认知智能中的要内容,是通往能人工智能的必经之路
自然语言处理与图像、语音不同,语言是高度抽象的产物,其基本构成单位并不是明确的物理 。
自然语言体现的发展⼀定程度上反映了自然语言处理的发展
自然语言体现的变迁很大程度影响着自然语言处理的范式
从离散到连续,从上下文无关到上下文相干,从浅层到深层
二、大模型发展时间线:
三、大模型分类
2018年,OpenAI和Google分别推出GPT与BERT,打开了自然语言处处理新篇章,开启“预练习+精调”新范式 根据⾯向的使命类型,相干预练习模型也⼤致分为两⼤类:自然语言处理解(NLU)、自然语言处⽣成(NLG)
开源大模型汇总
闭源大模型汇总
四、大语言模型范式发展
新范式:预练习+上文学习(In Context Learning)
大模型语言构建流程
1.
预练习
(Pretraining)阶段需要利用海量的练习数据,包括互联网网页、维基百科、书籍、GitHub、论文、问答网站等,构建包含数千亿甚至数万亿单词的具有多样性的内容。
2.
有监督微调
(SupervisedFinetuning),也称为指令微调(InstructionTuning),利用少量高质量数据集合,包含用户输入的提示词(Prompt)和对应的理想输出结果。用户输入包括问题、闲聊对话、使命指令等多种形式和使命。
3.
奖励建模
(RewardModeling)阶段目标是构建一个文本质量对比模型,对于同一个提示词,SFT 模型给出的多个不同输出结果的质量进行排序。奖励模型(RM模型)可以
通过二分类模型,对输入的两个结果之间的优劣进行判断
。RM模型与基础语言模型和SFT模型不同,RM模型本身并不能单独提供给用户使用。奖励模型的练习通常和SFT模型一样,使用数十块GPU,通过几天时间完成练习。
4.
强化学习
(ReinforcementLearning)阶段根据数十万用户给出的提示词,利用在前一阶段练习的RM模型,给出SFT模型对用户提示词补全结果的质量评估,并与语言模型建模目标综合得到更好的结果。该阶段所使用的提示词数目与有监督微调阶段类似,数目在十万量级,并且不需要人工提前给出该提示词所对应的理想复兴。
五、大模型预练习挑战
模型巨细几乎呈指数增长,大模型练习面对新挑战:
本钱高
(1)GPT-175B一次练习光盘算资源消耗1200万美元
css复制代码 a. 采用A100的GPU,算力峰值在312TFLOPS。
b. OpenAI定义的GPT-3 175B模型,算力总需求是3.64E+03 PFLOPS For One Day,不考虑内存限制,即单张A100卡训练 3640*1024 / 312 = 11946 days。
c. 假定我们使用1000张A100,并且能够将算力打满(现实情况是几乎不可能,整体的使用率达到90%已经是优化的很极限的程序了),大约11天可以训练完成。
复制代码
(2)业界方案:predictive scaling(GPT4焦点工作)
六、名词表明:
大模型
:一般指1亿以上参数的模型,但是这个标准一直在升级,目前万亿参数以上的模型也有了。大语言模型(Large Language Model,LLM)是针对语言的大模型。
175B、60B等
:这些一般指参数的个数,B是Billion/十亿的意思,175B是1750亿参数,这是ChatGPT大约的参数规模。
强化学习
:(Reinforcement Learning)一种机器学习的方法,通过从外部获得激励来校正学习方向从而获得一种自适应的学习本领。
基于人工反馈的强化学习(RLHF)
:(Reinforcement Learning from Human Feedback)构建人类反馈数据集,练习一个激励模型,模仿人类偏好对结果打分,这是GPT-3后时代大语言模型越来越像人类对话焦点技术。
涌现:
(Emergence)或称创发、突现、呈展、演生,是一种现象。许多小实体相互作用后产生了大实体,而这个大实体展现了构成它的小实体所不具有的特性。研究发现,模型规模达到一定阈值以上后,会在多步算术、大学考试、单词释义等场景的准确性显著提升,称为涌现。
泛化
:(Generalization)模型泛化是指一些模型可以应用(泛化)到其他场景,通常为接纳迁移学习、微调等本领实现泛化。
微调
:(FineTuning)针对大量数据练习出来的预练习模型,后期接纳业务相干数据进一步练习原先模型的相干部分,得到准确度更高的模型,或者更好的泛化。
指令微调:
(Instruction FineTuning),针对已经存在的预练习模型,给出额外的指令或者标注数据集来提升模型的性能。
头脑链
:(Chain-of-Thought,CoT)。通过让大语言模型(LLM)将一个问题拆解为多个步骤,一步一步分析,渐渐得出精确答案。需指出,针对复杂问题,LLM直接给堕落误答案的概率比较高。头脑链可以当作是一种指令微调。
Embedding:
这是指将输入的文本(如“an astronaut riding a horse”)转换成一个高维空间中的向量体现。这个过程通常通过一个文本编码器(Text encoder)完成,它可以捕获和编码文本的语义信息。Embedding向量是一个麋集的向量,它将文本的信息压缩进一个固定长度的格式,以便模型可以处理。
Encoder:
在深度学习模型中,encoder通常是一个神经网络布局,它的目标是将高维数据(如图像或文本)转换成一个低维的、麋集的体现,即latent空间。这个过程涉及信息的压缩,encoder试图捕获输入数据的焦点特性。在文本到图像的天生模型中,encoder通常指的是将文本信息编码成向量的文本编码器。
Decoder:
decoder是encoder的对偶,它的使命是将encoder输出的低维、麋集的latent体现重新构建回原始数据的高维空间。在图像天生模型中,decoder负责将latent空间的数据“解码”成可识别的图像。这个过程通常涉及数据的扩张和细化,以天生高质量的输出图像。
ChatGPT:OpenAI发行的基于GPT架构的大型对话式语言模型。
GPT-4-powered eval:使用GPT-4模型评估技术,对其他模型输出进行定性比较。
ChatGPT API:提供外部开发者和应用程序访问ChatGPT功能的接口。
GPT4All:Nomic创建的模型及生态系统项目。
LLaMA:Meta公司开发的大型语言模型,社区泄露后引发创新和开发。
Vicuna:发布与Bard功能相称的13B参数模型的跨大学互助项目。
RLHF (Reinforcement Learning from Human Feedback):通过人类反馈练习AI模型的方法。
LoRA (Low Rank Adaptation):一种通过低秩分解低落更新矩阵巨细的模型微调技术。
Chinchilla:可能指进步大规模语言模型效率的技术或模型布局。
Stable Diffusion:一个开源图像天生AI项目,使用天生对抗网络(GANs)产生高分辨率图像。
Dall-E:OpenAI开发的根据文本描述天生图像的AI模型。
Fine-tuning:在预练习模型基础上进一步练习优化特定使命性能的过程。
PEFT (Parameter Efficient Fine Tuning) :参数高效微调技术,用较少可学习参数有用微调模型。
Low rank:指矩阵中非零奇特值数目较少,微调时改变部分参数,保持布局大体稳定。
Full-rank updates:更新模型所有参数的方法。
Datasets and tasks:机器学习模型练习所需的数据样本集合和模型需要完成的特定问题。
Distillation:一种模型压缩技术,练习小型神经网络模仿大型网络行为。
Model weights:毗连神经网络神经元的参数,练习中学习得到,用于推测。
ULM (Universal Language Model):计划处理、理解、天生不同使命和范畴内文本的模型。
Instruction Tuning:优化语言模型以更好理解并执行自然语言指令的过程。
Conversation Tuned:优化语言模型以进步进行自然语言对话的本领。
Alpaca:斯坦福大学发布的项目,对LLaMA模型进行指令调整。
Quantization:减少模型权重位数,以减小模型巨细并加速推理的过程。
μ-parameterization (Micro-parameterization):模型规模优化方法,进步性能。
LLaMA-Adapter:使用PEFT技术,对LLaMA模型添加指令调整和多模态本领,快速练习。
ScienceQA:针对多模态科学问答的基准测试,评估模型性能。
那么,我们该怎样学习大模型?
作为一名热心肠的互联网老兵,我决定把名贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和本领了 。我已将重要的AI大模型资料包括AI大模型入门学习头脑导图、佳构AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一、大模型全套的学习门路
学习大型人工智能模型,如GPT-3、BERT或任何其他先进的神经网络模型,需要系统的方法和持续的努力。既然要系统的学习大模型,那么学习门路是必不可少的,下面的这份门路能帮助你快速梳理知识,形成自己的体系。
L1级别:AI大模型时代的富丽登场
L2级别:AI大模型API应用开发工程
L3级别:大模型应用架构进阶实践
L4级别:大模型微调与私有化部署
一般掌握到第四个级别,市场上大多数岗位都是可以胜任,但要还不是天花板,天花板级别要求更加严酷,对于算法和实战是非常苛刻的。建议平凡人掌握到L4级别即可。
以上的AI大模型学习门路,不知道为什么发出来就有点糊
,高清版可以微信扫描下方CSDN官方认证二维码免费领取【包管100%免费】
二、640套AI大模型陈诉合集
这套包含640份陈诉的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套陈诉合集都将为您提供名贵的信息和启示。
三、大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技范畴的一大热门。这些大型预练习模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生本钱领,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
四、AI大模型商业化落地方案
作为平凡人,入局大模型时代需要持续学习和实践,不断进步自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献气力。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
去皮卡多
金牌会员
这个人很懒什么都没写!
楼主热帖
民间最大社区,倒闭了!
FPGA虚拟化:突破次元壁的技术 ...
Ribbon负载均衡的深度分析和使用 ...
如何基于 ZEGO SDK 实现 iOS 变声/混响 ...
基于Kubernetes(k8s)部署Dubbo+Nacos服 ...
Git分支
驱动开发:内核R3与R0内存映射拷贝 ...
LyScript 实现应用层钩子扫描器 ...
聊聊简单又不简单的图上多跳过滤查询 ...
【必知必会的MySQL知识】⑤DQL语言 ...
标签云
挺好的
服务器
快速回复
返回顶部
返回列表