怀念夏天 发表于 2025-2-12 15:53:03

神经网络(Neural Network)

弁言

神经网络,作为人工智能和机器学习范畴的核心组成部门,比年来在诸多范畴取得了显着的希望。受生物神经系统的启发,神经网络通过模拟人脑神经元的工作机制,能够从大量数据中学习复杂的模式和关系。其强盛的非线性建模能力使其在图像辨认、自然语言处置惩罚、语音辨认和推测分析等使命中体现出色。
神经网络的根本构建单元是神经元,每个神经元接收多个输入信号,通过加权求和并应用激活函数来天生输出。通过将这些神经元分层构造,神经网络能够逐步提取和组合输入数据中的特征,从而实现对复杂题目的有效解决。随着深度学习技术的发展,深度神经网络(DNN)通过增加网络的层数和复杂度,进一步提升了模型的表达能力和性能。
只管神经网络在许多应用中取得了乐成,但其计划和练习仍面临诸多挑战,如过拟合、梯度消散和盘算资源需求等。因此,研究者们不断探索新的网络结构、优化算法和正则化技术,以进步神经网络的效率和泛化能力。
一、神经网络的根本知识

人工神经网络( Artificial Neural Network, 简写为ANN)也简称为神经网络(NN)。是一种模仿生物神经网络(动物的中枢神经系统,特殊是大脑)结构和功能的 盘算模型。经典的神经网络结构包罗三个条理的神经网络。分别输入层,输出层以及隐蔽层。
https://i-blog.csdnimg.cn/direct/9fb79d93d470473abb7736d75679fed3.png
其中每层的圆圈代表一个神经元,隐蔽层和输出层的神经元有输入的数据盘算后输出,输入层的神经元只是输入。
神经网络的特点


[*] 每个连接都有个权值

[*] 同一层神经元之间没有连接

[*] 最后的输出结果对应的层也称之为全连接层FC

那么为什么计划这样的结构呢?首先从一个最基础的结构说起,神经元。从前也称之为感知机。神经元就是要模拟人的神经元结构。
https://i-blog.csdnimg.cn/direct/1af8252c8b964ea8a88fea18f1a54e5a.png

1943 年,McCulloch 和 Pitts 将上述情形抽象为上图所示的简单模型,这就是一直沿用至今的 M-P 神经元模型。把许多这样的神经元按一定的条理结构连接起来,就得到了神经网络。一个简单的神经元如下图所示:
https://i-blog.csdnimg.cn/direct/1d430a2539e0423b82da6a7e3d895ef9.png

[*] 输入分量:a1,a2,⋯ ,an 表示神经网络的各个输入分量。

[*] 权重参数:w1,w2,⋯ ,wn表示与每个输入分量对应的权重参数。

[*] 偏置:b′ 表示神经元的偏置。

[*] 激活函数:f表示激活函数,常见的激活函数包罗 tanh、sigmoid 和 relu。

[*] 神经元输出:t表示神经元的输出。
利用数学公式表示神经元的输出为:
https://i-blog.csdnimg.cn/direct/56b895696284441bb730015b97837595.png
可见,一个神经元的功能是求得输入向量与权向量的内积后,经一个非线性通报函数得到一个标量结果。
二、感知机( PLA: Perceptron Learning Algorithm )

感知机就是模拟这样的大脑神经网络处置惩罚数据的过程。感知机模型如下图:
https://i-blog.csdnimg.cn/direct/09e877f2fe7a4b598a253ffb4432a70a.png
感知机是一种最基础的分类模型,雷同于逻辑回归。感知机最基础是这样的函数,而逻辑回归用的sigmoid。这个感知机具有连接的权重和偏置
https://i-blog.csdnimg.cn/direct/d136409350b64ea8a4cfc088aeac402b.png
感知机的激活函数是符号函数:sign(z) = +1 (if z >=0) else -1。
感知机的作用:
把一个n维向量空间用一个超平面分割成两部门,给定一个输入向量,超平面可以判断出这个向量位于超平面的哪一边,得到输入时正类或者是反类,对应到2维空间就是一条直线把一个平面分为两个部门。


[*] 单层神经网络 是最根本的神经元网络情势,由有限个神经元构成,所有神经元的输入向量都是同一个向量。由于每一个神经元都会产生一个标量结果,以是单层神经元的输出是一个向量,向量的维数即是神经元的数量。示意图如下:

[*] https://i-blog.csdnimg.cn/direct/13bc13efec074d7f8f1375237d21ce53.png
三、多层神经网络

多层神经网络就是由单层神经网络进行叠加之后得到的,以是就形成了层的概念,常见的多层神经网络有如下结构:


[*] 输入层(Input layer),众多神经元(Neuron)担当大量输入消息。输入的消息称为输入向量。

[*] 输出层(Output layer),消息在神经元链接中传输、分析、权衡,形成输出结果。输出的消息称为输出向量。

[*] 隐蔽层(Hidden layer),简称“隐层”,是输入层和输出层之间众多神经元和链接组成的各个层面。隐层可以有一层或多层。隐层的节点(神经元)数量不定,但数量越多神经网络的非线性越显着,从而神经网络的强健性(robustness)更显着。 示意图如下:

[*] https://i-blog.csdnimg.cn/direct/73478907ec444e5c972a16466e75bec1.png
输入层的节点数:与特征的维度匹配
输出层的节点数:与目的的维度匹配。
中间层的节点

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 神经网络(Neural Network)