AI大模型原理(通俗易懂版)——AIGC

打印 上一主题 下一主题

主题 670|帖子 670|积分 2010

传送门:AI大模型原理(通俗易懂版)-CSDN博客


AIGC

提及近期的热门科技词汇,AIGC当之无愧位列其中。从某一天开始,我们突然发现AI可以资助天生笔墨图片音频视频等等内容了。而且让人难以分清背后的创作者到底是人类照旧AI。
这些AI天生的内容被叫做AIGC。它是AI Generated Content,即AI天生内容的简写。像ChatGPT天生的文章GitHub Copilot天生的代码,天生的图片等等,都属于AIGC。


天生式AI

而当AIGC这个词在国内火爆的同时,海外更流行的是别的一个词generated AI及天生式AI。从字面上来看,天生式AI和AIGC之间的关系很好明确。天生式AI所天生的内容就是AIGC。所以ChatGPT,GitHub Copilot等都属于天生式AI。由此可见,AIGC和天生式AI的概念都是很简单直白的。但因为AIGC这个词在国内比天生式AI更加流行。许多语境下,AIGC也被用于指代天生式AI。那么天生式AI和AI机器学习、监督学习、无监督学习、强化学习、深度学习、大语言模型等词汇之间又是什么关系?有没有一种剪不停理还乱的感觉?这个很难一言以蔽之,但通过一张图就可以直观明确他们之间的关系了。

分类

AI也叫人工智能,是盘算机科学下的一个学科,旨在让盘算机系统去模拟人类的智能,从而解决题目和完成使命。早在1956年,AI就被建立为了一个学科范畴。在今后数十年间经历过多轮低谷与繁荣。
机器学习是AI的一个子集,它的焦点在于不需要人类做显式编程。而是让盘算机通过算法自行学习和改进去辨认模式,做出预测和决议。好比,如果我们通过代码告诉电脑图片里有红色阐明是玫瑰,图片里有橙色阐明是向日葵。那程序对花种类的判断就是通过人类直接明确编写逻辑达成的,不属于机器学习,机器什么也没学。但如果我们给电脑大量玫瑰和向日葵的图片,让电脑自行辨认模式,总结规律,从而能对没见过的图片进行预测和判断,这种就是机器学习。



机器学习范畴下有多个分支。包罗监督学习、无监督学习、强化学习。
监督学习里,机器学习算法会接受有标签的训练数据。标签,就是期望的输出值。所以每一个训练数据点都既包罗输入特征,也包罗期望的输出值。算法的目标是学习输入和输出之间的映射关系,从而在给定新的输入特征后,能够正确预测出相应的输出值。经典的监督学习使命包罗分类,也就是把数据分别为不同的种别。以及回归,也就是对数值进行预测。好比拿一堆猫猫狗狗的照片和照片对应的猫狗标签进行训练。然后让模型根据没见过的照片预测是猫照旧狗,这就属于分类。拿一些房子特征的数据,好比面积、卧室数、是否带阳台等,和相应的房价作为标签进行训练,然后让模型根据没见过的房子的特征预测房价,这就属于回归

无监督学习和监督学习不同的是,他学习的数据是没有标签的。所以算法的使命是自主发现数据里的模式或规律。经典的无监督学习使命包罗聚类,也就是把数据进行分组。好比拿一堆新闻文章,让模型根据主题或内容的特征,自动把相似文章进行组织。
强化学习则是让模型在环境里采取行动。得到结果反馈,从反馈里学习,从而能在给定情况下采取最佳行动来最大化嘉奖或是最小化丧失。所以就跟训小狗一样,刚开始的时间小狗会随心所欲做出许多动作,但随着和训犬师的互动,小狗会发现某些动作能够得到嘉奖。某些动作没有嘉奖,某些动作以致会遭受处罚。通过观察动作和奖惩之间的接洽。小狗的举动会渐渐接近训犬师的期望。强化学习可以应用在许多使命上,好比说让模型下围棋,得到不偕行动导致的嘉奖或丧失反馈,从而在一局局游戏里优化计谋,学习如何采取行动到达高分。


那题目来了,深度学习属于这三类里的哪一类?它不属于内里的任何一类。深度学习是机器学习的一个方法,焦点在于使用人工神经网络模仿人脑处理处罚信息的方式。通过层次化的方法提取和表示数据的特征。神经网络是由许多基本的盘算和储存单元构成,这些单元被称为神经元,这些神经元通过层层连接来处理处罚数据。并且深度学习模型通常有许多层,因此称为深度。好比要让盘算机辨认小猫的照片,在深度学习中,数据首先被通报到一个输入层,就像人类的眼睛看到图片一样,然后数据通过多个隐藏层,每一层都会对数据进行一些复杂的数学运算,来资助盘算机明确图片中的特征,例如小猫的耳朵、眼睛等等。最后盘算时机输出一个答案,表明这是否是。一张小猫的图片神经网络可以用于监督学习,无监督学习,强化学习。所以深度学习不属于他们的子集,天生式AI是深度学习的一种应用。


使用神经网络来辨认现有内容的模式和结构,学习天生新的内容和形式可以是文本、图片、音频等等。而大语言模型也叫LLM(large language model)也是深度学习的应用。专门用于进行天然语言处理处罚使命,大语言模型内里的大字阐明模型的参数量非常大,大概有数十亿以致到万亿个,而且训练过程中也需要海量文本数据集,所以能更好的明确天然语言以及天生高质量的文本。

大语言模型的例子有非常多,好比国外的ChatGPT。以GPT3这个模型为例子,它会根据输入提示以及前面天生过的词,通过概率盘算,渐渐天生下一个词或token来输出文本序列。但不是所有的天生式AI都是大语言模型,而所有的大语言模型是否都是天生式AI这也存在些许争议

前半句很好明确,天生图像的扩散模型就不是大语言模型。它并不输出文本,同时有些人以为不是所有大语言模型都是天生式AI。这是因为有些大学模型由于其架构特点,不适当进行文本天生。

谷歌的Bert模型就是一个例子。它的参数量和训练数据很大,属于大语言模型。应用方面,Bert明确上下文的能力很强,因此被谷歌用在搜索上。用来进步搜索排名和信息摘录的正确性,它也被用于情感分析文本分类等使命。但同时Bert不善于文本天生,特别是连贯的长文本天生。所以有些人以为此类模型不属于天生式AI的范畴。这些概念共同构成了天生式AI的焦点要素。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

飞不高

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表