ChatGPT 干系话题近一年多来被刷爆,利用 AI 技能生成内容,引起了各行各业的关注。其实,自2022 年 4 月起,OpenAI、Google、Microsoft 相继发布了文生图模型,视觉创作就已经开始持续火热了。国内 AIGC 干系的技能和应用也在迅猛的发展,逐步走进人们的视野当中,并引起了极大的谈论度。
Q:ChatGPT、AIGC、AI、NLP 等这些概念之间毕竟是什么样的关系呢?下面,本篇文章将会围绕 ChatGPT 展开讲起~
ChatGPT 周边
ChatGPT (Chat Generative Pre-Trained Transformer): OpenAI 开发的谈天呆板人语言模型,基于 GPT 3.5,GPT 3.0 是在 2020 年 6 月发布,利用 大型语言模型(LLM,Large Language Model)来练习,并把结果存储到 Transformer 的模型参数中。预先练习得到的通用语言模型,所以能力强大,”善解人意“,马上答复。
ChatGPT 是生成式 AI 的一种形式,它利用的核心技能之一是 Transformer。
AIGC (AI Generated Content) 「内容生产」发展进程先容
大模型有以下长处:
1、结果好,可以提供强大的表示基础
2、通用性,提供同一的建模方式
3、泛化强,举一反三的少样本学习
因此大模型是适合 AIGC 的办理方案
NLP 扼要先容
- 天然语言处置惩罚(Natural Language Processing,NLP)是盘算机科学,人工智能,语言学关注盘算机和人类(天然)语言之间的相互作用的领域。天然语言处置惩罚是盘算机科学领域与人工智能领域中的一个紧张方向。它研究能实现人与盘算机之间用天然语言举行有效通信的各种理论和方法。天然语言处置惩罚是一门融语言学、盘算机科学、数学于一体的科学。因此,这一领域的研究将涉及天然语言,即人们一样平常利用的语言,所以它与语言学的研究有着密切的联系,但又有紧张的区别。天然语言处置惩罚并不是一般地研究天然语言,而在于研制能有效地实现天然语言通信的盘算机体系,特殊是其中的软件体系。因而它是盘算机科学的一部门。
其中,由 Attention 机制向 Transformer 的发展是其中一个重大变化
尺度的 Transformer 模型紧张由两个模块构成:
- Encoder(左边):负责理解输入文本,为每个输入构造对应的语义表示(语义特征
- Decoder(右边):负责生成输出,利用 Encoder 输出的语义表示结合其他输入来生成目标序列。
虽然新的 Transformer 模型层出不穷,它们接纳差别的预练习目标在差别的数据集上举行练习,但是大致上依然可以按模型结构将其分为三类:
- 纯 Encoder 模型(例如 BERT),又被称为自编码 (auto-encoding) Transformer 模型;
- ChatGPT 所依赖 GPT3.5 语言模型的的底层正是 Transformer。
- 上面所有提到的 Transformer 模型本质上都是预练习语言模型,它们都接纳自监视的方式在大量的生语料 (raw text) 上举行练习。自监视学习是一种练习目标可以根据模型的输入自动盘算的练习方法,不必要人工标注数据。
- 纯 Encoder 模型只利用 Transformer 模型中的 Encoder 模块,也被称为自编码 (auto-encoding) 模型。在每个阶段,注意力层都可以访问到原始输入句子中的所有词语,即具有“双向 (Bi-directional)”注意力。纯 Encoder 模型通常通过粉碎给定的句子(例如随机遮盖其中的单词),然后让模型举行重构来举行预练习,最适合处置惩罚那些必要理解整个句子语义的任务,例如句子分类、命名实体识别(词语分类)和抽取式问答。
- 纯 Decoder 模型(例如 GPT),又被称为自回归 (auto-regressive) Transformer 模型;
- Encoder-Decoder 模型(例如 BART、T5),又被称为 Seq2Seq (sequence-to-sequence) Transformer 模型。
- 应用领域
- 信息提取
- 文本生成
- 智能问答
- 呆板翻译
- 情绪分析
- 语音识别
- ......
大模型的应用范例
题图:文心大模型绘制的一张照片
题图:达摩院文生图大模型绘制的一张照片
ChatGPT
ChatGPT 基于 GPT 3.5,目前的知识库还是 2022 年 1 月份之前的数据。
GPT 模型发展先容
- 2018年,GPT的提出,可称之为 NLP 的一个高出式的发展。它提出了天然语言的一种新的练习范式。即可以通过海量的数据的「无监视学习」来练习一个语言模型。
- 2019年,GPT-2
- 2020年,GPT-3
- 2022年,GPT-3.5
- OpenAI 公司推出的 ChatGPT 与以往的公开提供服务的对话呆板人相比,性能有了显著的提高。它可以相对可靠地提供一些一样平常对话、知识获取的功能,也可以它根据人类提供的需求帮助写文档、写代码,甚至可以修改文本中的各类错误大概代码中的Bug。ChatGPT 是 Transformer 和 GPT 等干系技能发展的集大成者。
ChatGPT 性能卓越的紧张原因可以概括为三点:
- 利用的呆板学习模型表达能力强。
- 练习所利用的数据量巨大。
- 练习方法的先进性。
- 打辅助
- 帮写邮件
- 文章回答
- 生产代码/技能选型
- ......
百度文心大模型
百度的「文心一言」已于 2023 年 3 月份完成内测,对公众开放。「文心大模型」包含了基础通用大模型,以及面向重点领域和重点任务的大模型。
- 文心 ERNIE 3.0 文心大模型
- 创作歌词体验 https://wenxin.baidu.com/wenxin/pc/lyric
- AIGC-TTV (Text to Video)
创意应用
- 文心一格 文心一格 - AI艺术和创意辅助平台
- 晓晓写高考作文
- 文心大模型 补全《 富春山居图 》
- 文心 PLATO
- 人机对话紧张包罗任务对话、问答对话、开放域对话 3 种
- 开放域对话:在开放场景中举行拟人的对话,要求人设、人格、情绪、观点等维度的一致性;以多轮对话风趣、拟人为目标
许多大模型面对的挑战
- 知识禁绝确、知识时效性问题(许多「预练习模型」都存在的问题)
- 情绪抚慰=》生理咨询师 不可替代性(有哪些职业是 ChatGPT 无法取代的?)
- 时间和日期感知
- 举动能力控制(索要地址等)
AIGC 对各行业的影响
未来 AIGC 将产生哪些实用性的工具,又将如何影响我们的工作和生活,我们终将持续关注、持续学习,为我所用~
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |