ToB企服应用市场:ToB评测及商务社交产业平台

标题: ChatGPT研究报告:AIGC带来新一轮范式转移 [打印本页]

作者: 篮之新喜    时间: 2024-6-9 14:47
标题: ChatGPT研究报告:AIGC带来新一轮范式转移
本文约4000字,目的是快速建立AIGC知识体系,含有大量的计算专业名词,发起阅读同时扩展搜刮。



一、行业近况

1、概念界定

区别于PGC与UGC不同的,AIGC是使用人工智能技术主动天生内容的新型生产方式。




2、数据模态

按照模态区分,AIGC又可分为音频天生、文本天生、图像天生、视频天生及图像、视频、文本间的跨模态天生,细分场景浩繁,此中跨模态天生值得重点关注。



   模态是指数据的存在形式,比如文本、音频、图像、视频等文件格式  
跨模态,指的是像以文天生图/视频大概以图天生文这种情况  比方,百度的文心一格就是典型的以文天生图:






3、发展进程

AIGC 的发展可以大致分为以下三个阶段:







二、技术实现

AIGC 技术主要涉及两个方面:自然语言处理惩罚 NLP 和 AIGC 天生算法。
1、NLP自然语言处理惩罚

自然语言处理惩罚(NLP)赋予了AI明白和天生能力,是实现人与计算机之间如何通过自然语言进行交互的手段。
NLP技术可以分为两个方向:NLU和NLG。
1.1 自然语言明白 NLU

NLU使得计算性能够和人一样,具备正常人的语言明白能力。
过去,计算机只能处理惩罚结构化的数据,NLU 使得计算性能够识别和提取语言中的意图来实现对于自然语言的明白。



由于自然语言的多样性、歧义性、知识依赖性和上下文,计算机在明白上有许多难点,以是 NLU 至今还远不如人类的表现。



自然语言明白跟整个人工智能的发展历史类似,一共经历了 3 次迭代:基于规则的方法、基于统计的方法和基于深度学习的方法。



1.2 自然语言天生 NLG

NLG将非语言格式的数据转换成人类可以明白的语言格式,如文章、报告等。
NLG 的发展经历了三个阶段,从早期的简朴的数据归并到模板驱动模式再到如今的高级 NLG,使得计算性能够像人类一样明白意图,考虑上下文,并将结果呈如今用户可以轻松阅读和明白的叙述中。



自然语言天生可以分为以下六个步骤:内容确定、文本结构、句子聚合、语法化、参考表达式天生和语言实现。






1.3 神经网络 RNN

神经网络,尤其是循环神经网络 (RNN) 是当前 NLP 的主要方法的核心。
此中,2017 年由 Google 开发的 Transformer 模型现已逐步代替长短期影象(LSTM)等 RNN 模型成为了 NLP 问题的首选模型。



Transformer 的并行化优势允许其在更大的数据集上进行练习,这也促成了 BERT、GPT 等预练习模型的发展。
相关系统使用了维基百科、Common Crawl 等大型语料库进行练习,并可以针对特定使命进行微调。



1.4 Transformer 模型

Transformer 模型是一种接纳自注意力机制的深度学习模型,这一机制可以按输入数据各部分重要性的不同而分配不同的权重。



与循环神经网络(RNN)一样,Transformer 模型旨在处理惩罚自然语言等次序输入数据,可应用于翻译、文本摘要等使命。与 RNN 不同的是,Transformer 模型能够一次性处理惩罚所有输入数据。



注意力机制可以为输入序列中的恣意位置提供上下文。如果输入数据是自然语言,则 Transformer 不必像 RNN 一样一次只处理惩罚一个单词,这种架构允许更多的并行计算,并以此减少练习时间。
ChatGPT是OpenAI从GPT-3.5、GPT-4系列中的模型进行微调产生的聊天呆板人模型,能够通过学习和明白人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流。
2、AIGC算法


2.1 天生对抗网络 GAN

GAN是天生模型的一种,透过两个神经网络相互博弈的方式进行学习。



GAN 被广泛应用于广告、游戏、娱乐、媒体、制药等行业,可以用来创造假造的人物、场景,模拟人脸老化,图像风格变换,以及产生化学分子式等等。



2.2 扩散模型 Diffusion Model

GAN(天生对抗网络)有天生器和鉴别器,它们相互对抗,然后天生图像,由于模型本身具有对抗性,因此很难进行练习,使用扩散模型可以解决这个问题。
扩散模型也是天生模型,扩散模型背后的直觉泉源于物理学。在物理学中气体分子从高浓度地域扩散到低浓度地域,这与由于噪声的干扰而导致的信息丢失是相似的。
Diffusion通过引入噪声,然后尝试通过去噪来天生图像。在一段时间内通过多次迭代,模型每次在给定一些噪声输入的情况下学习天生新图像。
2.3 Lora模型

LoRA是Low-Rank Adaption of large language model的缩写,是一种大语言模型fine-tune的方法。



Lora主要思路是在固定大网络的参数,并练习某些层参数的增量,且这些参数增量可通过矩阵分解变成更少的可练习参数,大大低落finetune所需要练习的参数量。



三、商业落地

1、A应用场景





2、财产地图




2.1 财产上游:数据服务





2.2 财产中游:算法模型

算法模型是AIGC最核心的环节,是呆板学习的关键所在。通常包含三类参与者:专门实验室、企业研究院、开源社区。



AI实验室:算法模型在AI系统中起决策作用,是它完成各种使命的基础,可以视为AI系统的灵魂所在。
企业研究院:一些团体型公司或企业每每会设立专注于前沿科技领域的大型研究院,下设不同领域的细分实验室,通过学术氛围更浓重的管理方式为公司的科研发展添砖加瓦。
开源社区:社区对AIGC非常重要,它提供了一个共享结果、代码的平台,与其他人相互互助,共同推动AIGC相关技术的进步。根据覆盖领域的宽度和深度,这种社区可以分为综合型开源社区和垂直型开源社区。
2.3 财产下游:应用拓展




3、细分市场

3.1 文本处理惩罚

文本处理惩罚是AIGC相关技术距离普通消耗者近来的场景,技术较为成熟。
一样平常说来文本处理惩罚可以细分为营销型、贩卖型、续写型、知识型、通用型、辅助型、交互型、代码型。



3.2 音频处理惩罚

目前的音频处理惩罚主要分为三类:音乐型、讲话型、定制型,AI的应用将优化供给效率,改善整体利润程度。
3.3 图片处理惩罚

图片的创作门槛比笔墨高,传递信息也更直观,随着AIGC应用的日益广泛,图片处理惩罚也就从广告、设计、编辑等角度带来更大更多的机遇。图片处理惩罚可细分为天生型、广告型、设计型、编辑型。
3.4 视频处理惩罚

视频日益成为新期间最主流的内容消耗形态,将AIGC引入视频将是全新的赛道,也是技术难度最大的领域。视频处理惩罚可以细分为天生型、编辑型、定制型、数字虚拟人视频。






3.5 代码天生

以GitHub Copilot为例,Copilot是GitHub 和 OpenAI 互助产生的 AI 代码天生工具,可根据命名大概正在编辑的代码上下文为开发者提供代码发起。官方先容其已经接受了来自 GitHub 上公开可用存储库的数十亿行代码的练习,支持大多数编程语言。
四、面临挑战

除了技术上亟待解决的算力、模型准确性之外,目前AIGC相关的挑战主要集中在版权、欺诈、违禁内容三方面。
1、版权问题


2、欺诈问题


3、违禁内容




参考资料

https://chat.openai.com/chat
https://arxiv.org/pdf/1706.03762.pdf
https://arxiv.org/pdf/1406.2661.pdf
https://arxiv.org/pdf/1409.2329.pdf
https://arxiv.org/pdf/2112.10752.pdf
https://arxiv.org/pdf/2106.09685.pdf
https://github.com/pbloem/former
https://github.com/haofanwang/Lora-for-Diffusers/blob/main/convert_lora_safetensor_to_diffusers.py
AIGC:内容生产力的革命—国海证券
AIGC发展趋势报告2023—腾讯研究院
2023AIGC行业研究报告—甲子光年

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4