IT评测·应用市场-qidao123.com

标题: 动手学深度学习V2每日笔记(深度卷积神经网络AlexNet) [打印本页]

作者: 温锦文欧普厨电及净水器总代理    时间: 2024-8-6 23:10
标题: 动手学深度学习V2每日笔记(深度卷积神经网络AlexNet)
本文重要参考沐神的视频教程
https://www.bilibili.com/video/BV1h54y1L7oe/spm_id_from=333.788.recommend_more_video.0&vd_source=c7bfc6ce0ea0cbe43aa288ba2713e56d
文档教程 https://zh-v2.d2l.ai/
  本文的重要内容对沐神提供的代码中个人不太明白的内容举行笔记记录,内容不会特殊严谨仅供参考。
1.函数目次

2. 深度卷积神经网络AlexNet


LeNet利用输出形状AlexNet利用输出形状输入层\1x28x28输入层\3x224x224卷积层kernel=5、padding=2、stride=1、output_channel=66x28x28卷积层kernel=11、stride=4、output_channel=9696x54x54平均池化层kernel=2、padding=0、stride=26x14x14最大池化层kernel=3、stride=296x26x26卷积层kernel=5、padding=0、stride=1、output_channel=1616x10x10卷积层kernel=5、padding=2、output_channel=256256x26x26平均池化层kernel=2、padding=0、stride=216x5x5最大池化层kernel=3、stride=2256x12x12全连接层480->120120卷积层kernel=3、padding=1、output_channel=384384x12x12全连接层120->8484卷积层kernel=3、padding=1、output_channel=384384x12x12全连接层84->1010卷积层kernel=3、padding=1、output_channel=256256x12x12\\\最大池化层kernel=3、stride=2256x5x5\\\全连接层256x5x5->40964096\\\全连接层4096->40964096\\\全连接层4096->10001000

从LeNet(左)到AlexNet(右)
更多细节

3 代码实现

3.1 模型

  1. import torch
  2. from torch import nn
  3. class Reshape(torch.nn.Module):
  4.     def forward(self, x):
  5.         return x.view(-1, 1, 28, 28)
  6. net = nn.Sequential(
  7.     nn.Conv2d(in_channels=1, out_channels=96, kernel_size=11, stride=4, padding=1),nn.ReLU(),
  8.     nn.MaxPool2d(kernel_size=3, stride=2),
  9.     nn.Conv2d(in_channels=96, out_channels=256, kernel_size=5, padding=2),nn.ReLU(),
  10.     nn.MaxPool2d(kernel_size=3, stride=2),
  11.     nn.Conv2d(in_channels=256, out_channels=384, kernel_size=3, padding=1),nn.ReLU(),
  12.     nn.Conv2d(in_channels=384, out_channels=384, kernel_size=3, padding=1),nn.ReLU(),
  13.     nn.Conv2d(in_channels=384, out_channels=256, kernel_size=3, padding=1),nn.ReLU(),
  14.     nn.MaxPool2d(kernel_size=3, stride=2),
  15.     nn.Flatten(),
  16.     nn.Linear(256*5*5, 4096), nn.ReLU(),nn.Dropout(p=0.5),
  17.     nn.Linear(4096, 4096), nn.ReLU(),nn.Dropout(p=0.5),
  18.     nn.Linear(4096,10)
  19. )
  20. # X = torch.rand((1,1,224,224), dtype=torch.float32)
  21. # for layer in net:
  22. #     X = layer(X)
  23. #     print(layer.__class__.__name__, 'output shape:\t',X.shape)
复制代码
3.2 训练

  1. import torch
  2. from torch import nn
  3. import model
  4. import tools
  5. from model import net
  6. from d2l import torch as d2l
  7. import pandas as pd
  8. from tools import *
  9. if __name__ == "__main__":
  10.     batch_size = 128
  11.     train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size=batch_size, resize=224)
  12.     AlexNet = model.net
  13.     train_process = train_ch6(AlexNet,train_iter,test_iter,10,0.01,tools.try_gpu())
  14.     tools.matplot_acc_loss(train_process)
复制代码
tools文件
  1. import pandas as pd
  2. import torch
  3. import matplotlib.pyplot as plt
  4. from torch import nn
  5. import time
  6. import numpy as np
  7. class Timer:  #@save
  8.     """记录多次运行时间"""
  9.     def __init__(self):
  10.         self.times = []
  11.         self.start()
  12.     def start(self):
  13.         """启动计时器"""
  14.         self.tik = time.time()
  15.     def stop(self):
  16.         """停止计时器并将时间记录在列表中"""
  17.         self.times.append(time.time() - self.tik)
  18.         return self.times[-1]
  19.     def avg(self):
  20.         """返回平均时间"""
  21.         return sum(self.times) / len(self.times)
  22.     def sum(self):
  23.         """返回时间总和"""
  24.         return sum(self.times)
  25.     def cumsum(self):
  26.         """返回累计时间"""
  27.         return np.array(self.times).cumsum().tolist()
  28. argmax = lambda x, *args, **kwargs: x.argmax(*args, **kwargs) #返回最大值的索引下标
  29. astype = lambda x, *args, **kwargs: x.type(*args, **kwargs)  # 转换数据类型
  30. reduce_sum = lambda x, *args, **kwargs: x.sum(*args, **kwargs)  # 求和
  31. # 对多个变量累加
  32. class Accumulator:
  33.     """For accumulating sums over `n` variables."""
  34.     def __init__(self, n):
  35.         """Defined in :numref:`sec_utils`"""
  36.         self.data = [0.0] * n
  37.     def add(self, *args):
  38.         self.data = [a + float(b) for a, b in zip(self.data, args)]
  39.     def reset(self):
  40.         self.data = [0.0] * len(self.data)
  41.     def __getitem__(self, idx):
  42.         return self.data[idx]
  43. # 计算正确预测的数量
  44. def accuracy(y_hat, y):
  45.     """Compute the number of correct predictions.
  46.     Defined in :numref:`sec_utils`"""
  47.     if len(y_hat.shape) > 1 and y_hat.shape[1] > 1:
  48.         y_hat = argmax(y_hat, axis=1)
  49.     cmp = astype(y_hat, y.dtype) == y
  50.     return float(reduce_sum(astype(cmp, y.dtype)))
  51. # 单轮训练
  52. def train_epoch(net, train_iter, loss, trainer):
  53.     if isinstance(net, nn.Module):
  54.         net.train()
  55.     metric_train = Accumulator(3)
  56.     for X, y in train_iter:
  57.         y_hat = net(X)
  58.         l = loss(y_hat, y)
  59.         if isinstance(trainer, torch.optim.Optimizer):
  60.             trainer.zero_grad()
  61.             l.mean().backward()
  62.             trainer.step()
  63.         else:
  64.             l.sum().backward()
  65.             trainer(X.shape[0])
  66.         metric_train.add(float(l.sum()), accuracy(y_hat, y), y.numel())
  67.     #返回训练损失和训练精度
  68.     return metric_train[0]/metric_train[2], metric_train[1]/metric_train[2]
  69. # 单轮训练
  70. def train_epoch_gpu(net, train_iter, loss, trainer,device):
  71.     if isinstance(net, nn.Module):
  72.         net.train()
  73.     metric_train = Accumulator(3)
  74.     for i, (X, y) in enumerate(train_iter):
  75.         X, y = X.to(device), y.to(device)
  76.         y_hat = net(X)
  77.         l = loss(y_hat, y)
  78.         if isinstance(trainer, torch.optim.Optimizer):
  79.             trainer.zero_grad()
  80.             l.backward()
  81.             trainer.step()
  82.         else:
  83.             l.sum().backward()
  84.             trainer(X.shape[0])
  85.         metric_train.add(l * X.shape[0], accuracy(y_hat, y), X.shape[0])
  86.     #返回训练损失和训练精度
  87.     return metric_train[0]/metric_train[2], metric_train[1]/metric_train[2]
  88. # 用于计算验证集上的准确率
  89. def evalution_loss_accuracy(net, data_iter, loss):
  90.     if isinstance(net, torch.nn.Module):
  91.         net.eval()
  92.     meteric = Accumulator(3)
  93.     with torch.no_grad():
  94.         for X, y in data_iter:
  95.             l = loss(net(X), y)
  96.             meteric.add(float(l.sum())*X.shape[0], accuracy(net(X), y), X.shape[0])
  97.     return meteric[0]/meteric[2], meteric[1]/meteric[2]
  98. # 用于计算验证集上的准确率
  99. def evalution_loss_accuracy_gpu(net, data_iter, loss, device='None'):
  100.     if isinstance(net, torch.nn.Module):
  101.         net.eval()
  102.         if not device:
  103.             #将net层的第一个元素拿出来看其在那个设备上
  104.             device = next(iter(net.parameters())).device
  105.     meteric = Accumulator(3)
  106.     with torch.no_grad():
  107.         for X, y in data_iter:
  108.             if isinstance(X, list):
  109.                 X = [x.to(device) for x in X]
  110.             else:
  111.                 X = X.to(device)  # 赋值给 X,将数据移动到GPU中
  112.             y = y.to(device)  # 赋值给 y,将数据移动到GPU中
  113.             l = loss(net(X), y)
  114.             meteric.add(l * X.shape[0], accuracy(net(X), y), X.shape[0])
  115.             # meteric.add(float(l.sum()), accuracy(net(X), y), y.numel())  # 转为浮点数
  116.     return meteric[0]/meteric[2], meteric[1]/meteric[2]
  117. def matplot_acc_loss(train_process):
  118.     # 显示每一次迭代后的训练集和验证集的损失函数和准确率
  119.     plt.figure(figsize=(12, 4))
  120.     plt.subplot(1, 2, 1)
  121.     plt.plot(train_process['epoch'], train_process.train_loss_all, "ro-", label="Train loss")
  122.     plt.plot(train_process['epoch'], train_process.val_loss_all, "bs-", label="Val loss")
  123.     plt.legend()
  124.     plt.xlabel("epoch")
  125.     plt.ylabel("Loss")
  126.     plt.subplot(1, 2, 2)
  127.     plt.plot(train_process['epoch'], train_process.train_acc_all, "ro-", label="Train acc")
  128.     plt.plot(train_process['epoch'], train_process.val_acc_all, "bs-", label="Val acc")
  129.     plt.xlabel("epoch")
  130.     plt.ylabel("acc")
  131.     plt.legend()
  132.     plt.show()
  133. def gpu(i=0):
  134.     """Get a GPU device.
  135.     Defined in :numref:`sec_use_gpu`"""
  136.     return torch.device(f'cuda:{i}')
  137. def cpu():
  138.     """Get the CPU device.
  139.     Defined in :numref:`sec_use_gpu`"""
  140.     return torch.device('cpu')
  141. def num_gpus():
  142.     """Get the number of available GPUs.
  143.     Defined in :numref:`sec_use_gpu`"""
  144.     return torch.cuda.device_count()
  145. def try_gpu(i=0):
  146.     """Return gpu(i) if exists, otherwise return cpu().
  147.     Defined in :numref:`sec_use_gpu`"""
  148.     if num_gpus() >= i + 1:
  149.         return gpu(i)
  150.     return cpu()
  151. def train_ch6(net, train_iter, test_iter, num_epochs, lr, device):
  152.     """用GPU训练模型(在第六章定义)"""
  153.     #模型参数初始化
  154.     def init_weights(m):
  155.         if type(m) == nn.Linear or type(m) == nn.Conv2d:
  156.             nn.init.xavier_uniform_(m.weight)
  157.     net.apply(init_weights)
  158.     print("training on", device)
  159.     net.to(device)
  160.     # 定义优化器
  161.     ptimizer = torch.optim.SGD(net.parameters(), lr=lr)
  162.     # 定义损失函数
  163.     loss = nn.CrossEntropyLoss()
  164.     # 训练集损失函数
  165.     # 训练集损失列表
  166.     train_loss_all = []
  167.     train_acc_all = []
  168.     # 验证集损失列表
  169.     val_loss_all = []
  170.     val_acc_all = []
  171.     timer = Timer()
  172.     timer.start()
  173.     for epoch in range(num_epochs):
  174.         train_loss, train_acc = train_epoch_gpu(net, train_iter, loss, ptimizer, device)
  175.         val_loss, val_acc = evalution_loss_accuracy_gpu(net, test_iter, loss, device)
  176.         train_loss_all.append(train_loss)
  177.         train_acc_all.append(train_acc)
  178.         val_loss_all.append(val_loss)
  179.         val_acc_all.append(val_acc)
  180.         print("{} train loss:{:.4f} train acc: {:.4f}".format(epoch, train_loss_all[-1], train_acc_all[-1]))
  181.         print("{} val loss:{:.4f} val acc: {:.4f}".format(epoch, val_loss_all[-1], val_acc_all[-1]))
  182.         print("训练和验证耗费的时间{:.0f}m{:.0f}s".format(timer.stop() // 60, timer.stop() % 60))
  183.     train_process = pd.DataFrame(data={"epoch": range(num_epochs),
  184.                                        "train_loss_all": train_loss_all,
  185.                                        "val_loss_all": val_loss_all,
  186.                                        "train_acc_all": train_acc_all,
  187.                                        "val_acc_all": val_acc_all, })
  188.     return train_process
复制代码
4 QA

题目1:老师,ImageNet数据集是怎么构建的,如今看是不是要成为历史了?
ImageNet数据集仍然还是一个很重要的数据集。在多数卷积神经网络中还是利用该数据集验证模型性能。
题目2:为什么2000年的时候,神经网络被核方法代替?是因为神经网络运算量太大,数据多,硬件跟不上吗?
重要是核方法有很好理论,同时在2000年的时候深度神经网络计算不动。
题目3:nlp范畴,cnn也代替了人工特征工程吗?如何对待nlp范畴transformer、bert、deepfm这些方法和cv范畴cnn方法的区别?
nlp与cnn在计划思路上是没有区别的。
题目4:alexNet让机器自己寻找特征,这些找到的特征都符合人类的逻辑吗?如果不复合的话,要怎么解释?
AlexNet寻找的特征通常是不符合人类的逻辑。其优化的目标是让机器模型可以更好的分类,再此过程中并没有思量人的因素。因此深度学习神经网络解释性较差。
题目7:从发展视角来看,CNN完爆MLP吗?未来MLP是否有大概由于某些技能成为主流?
CNN就是一个特殊的MLP,MLP可以做更多的结构化计划。Transformer你也可以以为是MLP加一起其他东西的计划。
题目11:我们在一个识别细胞的程序里做了颜色+多少变更的增强后结果反倒比只做多少变革的增强结果差。这个大概是因为什么?
这个征象属于正常征象。数据增强加多变差不是一个很奇怪的事情。
题目13:没太明白为什么leNet不属于深度卷积神经网络?
对于好的研究结果也要学会包装和营销。取一个好的名字很重要。突出自己工作内容的创新。
题目16:作为一个行外汉,感觉如今新的CV范畴模型也越来越少,大家都在搞demo。老师如何对待这件事呢?
这是技能发展的一定过程。这是一个好的征象。大家搞demo可以将技能落地,搞出产物。如今去做CNN的计划比较难。
题目17:网络要求输入的size是固定的,实际利用的时候图片不一定是要求的size,如果强行resize成网络要求的size,会不会最后的结果要差?
当图片过大的时候,通常会将短边压缩到要求的宽度然后再冲里面随机扣除符合要求的图片去做训练大概测试。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/) Powered by Discuz! X3.4