深度学习卷积神经网络CNN之MobileNet模子网络模子详解说明(超详细理论篇)
1.MobileNet背景2.MobileNet V1论文
3. MobileNett改进史
4. MobileNet模子结构
5. 特点(超详细创新、优缺点及新知识点)
一、MobileNet背景
随着移动装备的普及,深度学习模子的应用场景渐渐扩展至移动端和嵌入式装备。然而,传统的深度学习模子在计算和存储资源上的需求较高,不恰当在这些资源受限的装备上运行。因此,Google于2017年提出了MobileNet模子,旨在提供一种在性能不大幅低落的前提下,可以或许明显低落资源斲丧的深度学习办理方案。
https://i-blog.csdnimg.cn/direct/8bf778b3e0c149a9bb8528102ccf3be5.png
MobileNet的核心目标是优化计算资源的利用,使其可以或许在移动装备和嵌入式系统中高效运行。这一模子的出现,为图像分类、目标检测、图像分割等任务提供了新的可能,尤其是在需要快速响应和低功耗的环境中。
二、MobileNet V1论文
论文名字 :MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
https://arxiv.org/abs/1704.04861原论文 V1网址
提出了一类高效的模子,称为 MobileNets,实用于移动和嵌入式视觉应用。MobileNets 基于一种简化的架构,该架构利用深度可分离卷积来构建轻量级深度神经网络。引入了两个简单的全局超参数,可以有效地在延迟和准确性之间进行衡量。这些超参数允许模子构建者根据题目的束缚为其应用选择合适巨细的模子。在资源和准确性衡量方面进行了广泛的实行,与其他流行的 ImageNet 分类模子相比,它表现出了强大的性能。然后,展示了 MobileNets 在各种应用和用例中的有效性,包罗对象检测、细粒度分类、面下属性和大规模地理定位。
MobileNetV2
论文标题:MobileNetV2: Inverted Residuals and Linear Bottlenecks
论文网址:https://arxiv.org/abs/1801.04381
MobileNetV4
论文标题:Searching for MobileNetV4: Cross-Stage Partial Networks for Next-Generation Mobile Vision Applications
论文网址:https://arxiv.org/abs/2404.10518
三、MobileNet改进史
MobileNet系列至今已发展至V3版本,每一代都在不停优化性能和服从。
1.MobileNet V1:
首次引入了深度可分离卷积(Depthwise Separable Convolution)的概念。这种卷积方式将标准卷积分解为深度卷积和逐点卷积两个步调,明显减少了计算量和模子巨细。同时,V1还提供了可调的宽度乘子(width multiplier)和分辨率乘子(resolution multiplier),利用户可以根据详细应用需求调整模子的巨细和输入图像的分辨率。
2.MobileNet V2:
在V1的基础上,引入了倒残差块(Inverted Residual Block)和线性激活函数(Linear Activation)。这些改进使得V2在保持轻量级特性的同时,实现了更高的准确性和更低的延迟。倒残差块的计划有助于保存和增强特征信息,改善了模子在低资源环境中的表现。
3.MobileNet V3:
进一步对V2进行了全面改进,接纳了HardSwish激活函数、挤压励磁模块(Squeeze-and-Excitation Block),以及MnasNet和NetAdapt等网络架构搜索(NAS)技能。这些技能使得V3在保持高性能的同时,实现了更快的推理速度和更小的模子尺寸。
四、 MobileNet模子结构
https://i-blog.csdnimg.cn/direct/8ffd597ce8eb4cdc8e1a7a850a37b3fe.png
以V1为例,其网络结构主要由标准卷积层、深度可分离卷积层、平均池化层和全毗连层组成。
https://i-blog.csdnimg.cn/direct/c5cd00982c7441e2a23e0f0b930df1ba.png
标准卷积层:通常位于网络的首层,用于提取输入图像的低级特征。
深度可分离卷积层:是MobileNet的核心组件,由深度卷积和逐点卷积组成。深度卷积对每个输入通道进行独立卷积,逐点卷积则通过1x1卷积将各个通道的输出合并。
平均池化层:用于低落特征图的尺寸,减少计算量。
全毗连层:位于网络的末层,用于将特征图映射到分类结果上。
V2和V3在V1的基础上进行了改进,引入了倒残差块、线性激活函数和NAS等技能,进一步提升了模子的性能和服从。
五、特点(超详细创新、优缺点)
1.创新点:
深度可分离卷积:MobileNet的核心创新点在于深度可分离卷积的引入。这种卷积方式将标准卷积分解为深度卷积和逐点卷积两个步调,明显减少了计算量和模子巨细。同时,它还可以或许保存输入特征的空间结构,使得模子在保持高性能的同时,实现了更高效的计算。
残差块:V2引入的倒残差块计划,使得特征在经过深度卷积时可以或许保存更多信息。这种结构首先通过一个1x1卷积将输入特征映射扩展,然后利用深度可分离卷积进行特征提取,最后再通过1x1卷积将特征压缩回原始维度。
NAS技能:V3接纳了MnasNet和NetAdapt等网络架构搜索技能,自动探求最优的网络结构。这些技能使得V3在保持高性能的同时,实现了更快的推理速度和更小的模子尺寸。
2.长处:
高效性:MobileNet模子在计算服从和参数数目上都明显减少,使其非常恰当在手机等资源受限的装备上运行。
灵活性:用户可以通过调整宽度乘子和分辨率乘子来定制模子的复杂度,以满足差别应用场景的需求。
高性能:尽管MobileNet是轻量级模子,但在标准数据集(如ImageNet)上的表现仍然相对较好。它可以或许达到与很多重型网络相媲美的准确率。
3.缺点:
相对较低的准确性:虽然MobileNet的性能在轻量级模子中表现良好,但与一些大型、重型模子(如ResNet或Inception)相比,其准确性通常较低。在某些复杂使掷中,可能无法达到所需的性能。
信息损失:深度可分离卷积虽然减少了参数和计算量,但也可能导致信息的损失。因为每个通道是独立处理的,可能无法捕捉到跨通道的特征。
4.新知识点:
宽度乘子和分辨率乘子:这两个超参数允许用户根据详细应用需求调整模子的巨细和输入图像的分辨率,从而在准确率和服从之间找到均衡。
NAS技能:网络架构搜索技能可以或许自动寻找最优的网络结构,进步模子的性能和服从。
HardSwish激活函数:V3接纳的HardSwish激活函数相比传统的ReLU激活函数,在某些情况下可以或许改善模子的学习本领。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]