用户名
Email
论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
帖子
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
软件与程序人生
›
程序人生
›
GPT 1-3(速通版)
GPT 1-3(速通版)
不到断气不罢休
金牌会员
|
2025-3-19 23:01:45
|
显示全部楼层
|
阅读模式
楼主
主题
962
|
帖子
962
|
积分
2886
概述
发布时间线:
Transformer 2017 年 6 月
GPT1:2018 年 6 月
Bert: 2018 年 10 月
GPT2:2019 年 2 月
GPT3:2020 年 5 月
bert 得当较小数据集、GPT 必须要超大规模数据集才能有用。
GPT-4 未有论文。
GPT-1(2018 年 6 月)
GPT1 参数量
:大概 1 亿参数
12 层 decoder(维度 768,12 个留意力头)
训练集
:7000 本书籍(8 亿个单词)
GPT-2(2019 年 2 月)
名称
:《Language Models are Unsupervised Multitask Learners》【语言模型是无监督的多任务学习者】
时间
:2019 年 2 月
作者
:OpenAI 6 人(负责人是 ilya)
代码
:https://github.com/openai/gpt-2(没有提供训练代码,也没有最大号预训练模型)
一段话总结 GPT-2
:用的 transformer 解码器布局(48 层 decoder),15 亿参数,模型输入是文本,输出也是文本。训练数据源自 reddit 上被点赞的 4500 万个网站链接,各种筛选后获得 800 万文本,大概 40GB 文本数据量。预训练模型能够实现 zero-shot,即无需微调直接能在各种范畴使用。在浩繁 zero-shot 范畴到达 SOTA,并且这种架构的精度天花板还远未触及,只要继续去提高参数量和数据量。
GPT-3(2020 年 5 月)
模型布局跟 GPT-2 险些完全一致,调整的部分是:采用稀疏留意力(只有临近 token 进行留意力计算)。
GPT-3 最大特点
:
明显提高了在零样本学习和少样本学习上的表现,它能够通过简朴的提示(prompts)来执行各种任务,无需额外的训练。
GPT-3 在几十种范例任务中的平均表现(此中很多范畴,few shot 能力凌驾其他 SOTA 模型的微调)
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
不到断气不罢休
金牌会员
这个人很懒什么都没写!
楼主热帖
Spark的一些重要概念
从SAP ECC升级到SAP S4HANA, 几个Key P ...
手绘地图深度解析:类型、风格、功能、 ...
数据库设计员工管理系统
【Redis高手修炼之路】初学Redis——概 ...
MySQL触发器
物联网无线数传通信模块设备常见的几种 ...
19.HVV溯源
【高效学数据库】第一范式、第二范式、 ...
用Python计算从1到500之间偶数的和 ...
标签云
运维
CIO
存储
服务器
快速回复
返回顶部
返回列表