第三章:基于DenseNet(121,161,169,201)卷积神经网络实现的自适应多类别分 ...

打印 上一主题 下一主题

主题 887|帖子 887|积分 2661

目录
1. DenseNet 介绍
2. DenseNet 实现的垃圾图像分类
2.1 垃圾10分类数据集
2.2 训练
2.3 训练结果
2.4 推理
3. 项目下载


1. DenseNet 介绍

DenseNet是一种深度学习架构,卷积神经网络(CNN)的一种变体,旨在解决梯度消失的题目并进步网络连接性。

在传统的CNN中,信息流是顺序的,每一层只连接到下一层。这可能会导致梯度在网络中流传时减小,从而难以训练深度网络。DenseNet旨在通过引入密集连接来缓解这一题目,密集连接允许从网络中的任何层直接连接到任何其他层。
DenseNet由多个密集块组成,每个密集块包含多个层。密集块内的每一层都连接到同一块内的其他每一层。这种密集的连接促进了特性重用和信息流,使梯度更轻易在整个网络中流传。此外,DenseNet在每个密集块后都加入了一个过渡层,以降低特性图的维度并控制网络的增长。

DenseNet的重要优势包括:
改进的梯度流:层之间的直接连接有助于降服梯度消失题目,并实现深度网络的高效训练。
强大的特性重用:密集的连接促进了特性重用,从而实现了更紧凑的网络和更好的参数服从。
参数数量减少:与传统的CNN架构相比,DenseNet通常必要更少的参数,从而使模型更轻易训练,计算服从更高。
进步精度:DenseNet已被证实在各种计算机视觉使命上到达了开始辈的性能,如图像分类和物体检测。
总体而言,DenseNet是一个强大的深度学习架构,可以解决训练深度网络的挑衅。其密集的连接性和高效的参数共享使其成为各种计算机视觉使命的有用选择。

其中,denseNet差异版本的架构如下


2. DenseNet 实现的垃圾图像分类

densenet实现的model部分代码如下面所示,这里如果采用官方预训练权重的话,会主动导入官方提供的最新版本的权重
  1.     if model == 'densenet121':
  2.         net = m.densenet121(pretrained=m.DenseNet121_Weights.DEFAULT if weights else False,progress=True)
  3.     elif model == 'densenet161':
  4.         net = m.densenet161(pretrained=m.DenseNet161_Weights.DEFAULT if weights else False,progress=True)
  5.     elif model == 'densenet169':
  6.         net = m.densenet169(pretrained=m.DenseNet169_Weights.DEFAULT if weights else False,progress=True)
  7.     elif model == 'densenet201':
  8.         net = m.densenet201(pretrained=m.DenseNet201_Weights.DEFAULT if weights else False,progress=True)
  9.     else:
  10.         print('模型选择错误!!')
  11.         return None
复制代码

2.1 垃圾10分类数据集

数据集的摆放如下:

字典文件:
  1. {
  2.     "0": "dianchi",
  3.     "1": "lajiao",
  4.     "2": "pingguo",
  5.     "3": "qiezi",
  6.     "4": "taoci",
  7.     "5": "tudou",
  8.     "6": "xiangjiao",
  9.     "7": "yandi",
  10.     "8": "yilaguan",
  11.     "9": "yinliaoping"
  12. }
复制代码

其中,训练集总数700,验证集总数300,颠末transform预处理的可视化结果如下:


2.2 训练

将数据集按照上述格式摆放好即可开始训练,训练的参数如下:
 
  1.     parser.add_argument("--model", default='densenet121', type=str,help='densenet121,densenet161,densenet169,densenet201')
  2.     parser.add_argument("--pretrained", default=True, type=bool)       # 采用官方权重
  3.     parser.add_argument("--freeze_layers", default=True, type=bool)    # 冻结权重
  4.     parser.add_argument("--batch-size", default=4, type=int)
  5.     parser.add_argument("--epochs", default=30, type=int)
  6.     parser.add_argument("--optim", default='SGD', type=str,help='SGD、Adam')         # 优化器选择
  7.     parser.add_argument('--lr', default=0.001, type=float)
  8.     parser.add_argument('--lrf',default=0.0001,type=float)                  # 最终学习率 = lr * lrf
复制代码
这里分类的个数不必要指定,代码会根据数据集主动生成!

2.3 训练结果

所有的结果都生存在 runs 目录下


这里只展示部分:



训练日志:
  1.     "epoch:29": {
  2.         "train info": {
  3.             "accuracy": 0.9985714285571633,
  4.             "dianchi": {
  5.                 "Precision": 1.0,
  6.                 "Recall": 1.0,
  7.                 "Specificity": 1.0,
  8.                 "F1 score": 1.0
  9.             },
  10.             "lajiao": {
  11.                 "Precision": 1.0,
  12.                 "Recall": 1.0,
  13.                 "Specificity": 1.0,
  14.                 "F1 score": 1.0
  15.             },
  16.             "pingguo": {
  17.                 "Precision": 1.0,
  18.                 "Recall": 1.0,
  19.                 "Specificity": 1.0,
  20.                 "F1 score": 1.0
  21.             },
  22.             "qiezi": {
  23.                 "Precision": 1.0,
  24.                 "Recall": 1.0,
  25.                 "Specificity": 1.0,
  26.                 "F1 score": 1.0
  27.             },
  28.             "taoci": {
  29.                 "Precision": 1.0,
  30.                 "Recall": 0.9857,
  31.                 "Specificity": 1.0,
  32.                 "F1 score": 0.9928
  33.             },
  34.             "tudou": {
  35.                 "Precision": 1.0,
  36.                 "Recall": 1.0,
  37.                 "Specificity": 1.0,
  38.                 "F1 score": 1.0
  39.             },
  40.             "xiangjiao": {
  41.                 "Precision": 1.0,
  42.                 "Recall": 1.0,
  43.                 "Specificity": 1.0,
  44.                 "F1 score": 1.0
  45.             },
  46.             "yandi": {
  47.                 "Precision": 0.9859,
  48.                 "Recall": 1.0,
  49.                 "Specificity": 0.9984,
  50.                 "F1 score": 0.9929
  51.             },
  52.             "yilaguan": {
  53.                 "Precision": 1.0,
  54.                 "Recall": 1.0,
  55.                 "Specificity": 1.0,
  56.                 "F1 score": 1.0
  57.             },
  58.             "yinliaoping": {
  59.                 "Precision": 1.0,
  60.                 "Recall": 1.0,
  61.                 "Specificity": 1.0,
  62.                 "F1 score": 1.0
  63.             },
  64.             "mean precision": 0.9985900000000001,
  65.             "mean recall": 0.99857,
  66.             "mean specificity": 0.9998400000000001,
  67.             "mean f1 score": 0.99857
  68.         },
  69.         "valid info": {
  70.             "accuracy": 0.9699999999676666,
  71.             "dianchi": {
  72.                 "Precision": 0.9032,
  73.                 "Recall": 0.9333,
  74.                 "Specificity": 0.9889,
  75.                 "F1 score": 0.918
  76.             },
  77.             "lajiao": {
  78.                 "Precision": 1.0,
  79.                 "Recall": 0.9667,
  80.                 "Specificity": 1.0,
  81.                 "F1 score": 0.9831
  82.             },
  83.             "pingguo": {
  84.                 "Precision": 0.9375,
  85.                 "Recall": 1.0,
  86.                 "Specificity": 0.9926,
  87.                 "F1 score": 0.9677
  88.             },
  89.             "qiezi": {
  90.                 "Precision": 0.9677,
  91.                 "Recall": 1.0,
  92.                 "Specificity": 0.9963,
  93.                 "F1 score": 0.9836
  94.             },
  95.             "taoci": {
  96.                 "Precision": 1.0,
  97.                 "Recall": 1.0,
  98.                 "Specificity": 1.0,
  99.                 "F1 score": 1.0
  100.             },
  101.             "tudou": {
  102.                 "Precision": 1.0,
  103.                 "Recall": 0.9,
  104.                 "Specificity": 1.0,
  105.                 "F1 score": 0.9474
  106.             },
  107.             "xiangjiao": {
  108.                 "Precision": 0.9677,
  109.                 "Recall": 1.0,
  110.                 "Specificity": 0.9963,
  111.                 "F1 score": 0.9836
  112.             },
  113.             "yandi": {
  114.                 "Precision": 0.9375,
  115.                 "Recall": 1.0,
  116.                 "Specificity": 0.9926,
  117.                 "F1 score": 0.9677
  118.             },
  119.             "yilaguan": {
  120.                 "Precision": 1.0,
  121.                 "Recall": 0.9333,
  122.                 "Specificity": 1.0,
  123.                 "F1 score": 0.9655
  124.             },
  125.             "yinliaoping": {
  126.                 "Precision": 1.0,
  127.                 "Recall": 0.9667,
  128.                 "Specificity": 1.0,
  129.                 "F1 score": 0.9831
  130.             },
  131.             "mean precision": 0.97136,
  132.             "mean recall": 0.97,
  133.             "mean specificity": 0.99667,
  134.             "mean f1 score": 0.96997
  135.         }
复制代码

训练集和测试集的混淆矩阵:



2.4 推理

推理是指没有标签,只有图片数据的环境下对数据的预测,这里直接运行predict脚本即可
必要把待推理的数据放在 inference/img


推理结果:




3. 项目下载

关于本项目代码和数据集、训练结果的下载:
计算机视觉项目:DenseNet卷积神经网络网络【121,161,169,201四种版本】实现的自适应迁徙学习、图像识别项目:10种生存中常见垃圾图像分类资源-CSDN文库

关于计算机视觉实战可以继续关注本专栏,会持续更新图像分类和医学图像分割项目
关于图像分类和语义分割的改进:改进系列_Ai 医学图像分割的博客-CSDN博客



免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

缠丝猫

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表