魏晓东 发表于 2025-4-17 17:30:53

深度学习--深度学习概念、框架以及构造



一、深度学习

1.什么是深度学习?

深度学习是人工智能的一个子领域,属于机器学习的一部分,它基于人工神经网络的概念和结构,通过模拟人脑的工作方式来进行机器学习。
https://i-blog.csdnimg.cn/direct/3deb09c72a054ff285014e820b67f127.png
2.特点

深度学习的紧张特点是使用多条理的神经网络来提取和学习数据中的特征,并通过反向传播算法来优化参数,从而实现对复杂数据的建模与分类。深度学习在图像识别、语音识别、天然语言处置惩罚等领域取得了显著的结果,并被广泛应用于各种领域。
3.神经网络构造

https://i-blog.csdnimg.cn/direct/43647c8a9c1f417e8dd3b191c4d1ec68.png
神经网络是一种由多个神经元(或称为节点)构成的盘算模子,它模拟了生物神经体系中神经元之间的毗连方式。神经网络有输入层、隐藏层和输出层构成,其中输入层用于接收外界的输入信号,输出层用于输出猜测结果,隐藏层则用于处置惩罚输入信号并产生中间结果。
1).单层神经元

如下图所示:
https://i-blog.csdnimg.cn/direct/7ca060d68dbd4abe8a38fc1b03086841.png
神经元1为输入层,而外部传入的x1、x2、x3、x4、x5、……全部都是外界即将传入神经元的电信号,这些电信号在传入途中大概会有所损耗,而损耗完剩下的才会传入神经元,这些传入的现实信号就用w1x1、w2x2、w3x3、w4x4、w5x5、……来表现,w叫做权重。


[*] 推导
有下列一堆数据,存在一条直线将他们分开成两类,而这条线叫线的表达式可以表现为y=kx+b
https://i-blog.csdnimg.cn/direct/1b2f5e4e7dda4b3a824c798a5b74e9a5.png
将这个线性回归模子的表达式数学转换成神经网络模子的盘算表达式
y=kx+b —> 0=kx+b-y —> k1x+k2y+b=0 —> w1x1+w2x2+b=0 —> w1x1+w2x2+1*w0=0
https://i-blog.csdnimg.cn/direct/abdefccb78ae4c24944b18efab81f48f.png
这里的1为偏置项
如图传入信号为x1,x2,x3,他们分别通过权重w改变以后得到w1x1+w2x2+w3x3,然后再将这个结果映射到非线性函数上,这个非线性函数大多数用的都是sigmoid函数,从而得到最闭幕果,用sigmoid函数的原因是为了完成逻辑回归,由于 上图的模子为线性模子,他不能进行逻辑回归,以是只能将其映射到sigmoid函数中使其转变为逻辑回归。
sigmoid函数图像:
https://i-blog.csdnimg.cn/direct/8ef1929a9c9e49c7991fa22399ec05fb.png
2)多层神经网络

https://i-blog.csdnimg.cn/direct/eb85897695a84d9a8fa4a80cd594324d.png
如图所示,第一列叫输入层,末了一列叫输出层,神经元则在中间三列,每一个神经元的运行方式和上述单层网络一样,如下图所示,上图的5个信号乘以权重的结果求和,然后再对求和的值映射到sigmoid函数,然后第一个神经元接收到这样的信息,然后第一列的每一个神经元都必要得到所有信号的处置惩罚,末了再将这通过映射得到的五个值当做信号x再次盘算权重求和映射传给下一个神经元,传送到末了到输出层得到结果。(这里的为初期的神经网络构架)
https://i-blog.csdnimg.cn/direct/c1934aa885f1467898a43295dfbb6795.png
3)小结

神经网络是由大量神经元相互之间链接构成,
每个神经元节点代表一种特定的输出函数,称为激活函数。
如图所示:
https://i-blog.csdnimg.cn/direct/bfa538873dd749d3a93a01b033ab789b.png
每两个节点间的链接都代表一种对于通过该毗连信号的加权值,称之为权重。
如图所示:
https://i-blog.csdnimg.cn/direct/ef71c3d35cab4dc5835e62e1663457af.png
4.感知器

在“感知器”中,有两个条理。分别是输入层和输出层。输入层里的“输入单元”只负责传输数据,不做盘算。输出层里的“输出单元”则必要对前面一层的输入进行盘算。
https://i-blog.csdnimg.cn/direct/71f3dd2973a743ac84cbededf517af58.png
由于上述公式是线性代数方程组,因此可以用矩阵乘法表达这两个公式,输出公式为:
https://i-blog.csdnimg.cn/direct/d5dc24caf4204fbc99a0e2640aca4434.png
https://i-blog.csdnimg.cn/direct/8d0813d395b7458482bdff212c7f4f1f.png
神经网络的本质
通过参数与激活函数来拟合特征与目的之间的真实函数关系。但在一个神经网络的程序中,不必要神经元和线,本质上是矩阵的运算,实现一个神经网络最必要的是线性代数库。
5.多层感知器

相对于上述感知器,多层感知器则增加了一个中间层,即隐含层,神经网络可以做非线性分类的关键–隐含层。
https://i-blog.csdnimg.cn/direct/540650121b1d42aba04f6fe478d2df3c.png
现在,我们将权值矩阵增加到了两个,用上标来区分不同条理之间的变量。
例如ax(y)代表第y层的第x个节点。
https://i-blog.csdnimg.cn/direct/4e5e4f9408d14be6976fa7bcc7d5101f.png
6.多层感知器(偏置节点)

偏置节点:这些节点是默认存在的。它本质上是一个只含有存储功能,且存储值永远为1的单元。在神经网络的每个条理中,除了输出层以外,都会含有这样一个偏置单元。
偏置节点与后一层的所有节点都有毗连:
https://i-blog.csdnimg.cn/direct/8104806691394c87aa14c30ff84825e3.png
7.神经网络构造

- 重点
1.计划一个神经网络时,输入层与输出层的节点数往往是固定的,中间层则可以自由指定;
2.神经网络结构图中的箭头代表着猜测过程时数据的流向,跟练习时的数据流有一定的区别;
3.结构图里的关键不是圆圈(代表“神经元”),而是毗连线(代表“神经元”之间的毗连)。每个毗连线对应一个不同的权重(其值称为权值),这是必要练习得到的。
https://i-blog.csdnimg.cn/direct/273b8c96ea8049aa9911f6f1b4c190af.png
- 怎样构造中间层
1.输入层的节点数:与特征的维度匹配
2.输出层的节点数:与目的的维度匹配。
3.中间层的节点数:现在业界没有完满的理论来引导这个决策。一样平常是根据履历来设置。较好的方法就是预先设定几个可选值,通过切换这几个值来看整个模子的猜测结果,选择结果最好的值作为最终选择。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 深度学习--深度学习概念、框架以及构造