day33 python深度学习入门

[复制链接]
发表于 2025-8-7 21:27:51 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

×
目次
深度学习入门:PyTorch实现鸢尾花分类
一、情况搭建
1. 创建Python情况
2. 安装须要的库
3. 检查CUDA情况
二、数据准备
1. 加载数据集
2. 数据预处置惩罚
3. 转换为PyTorch张量
三、模子构建
1. 定义模子结构
2. 定义丧失函数和优化器
四、模子训练
1. 训练过程
2. 训练效果
五、效果可视化
六、总结

在深度学习的路程中,神经网络是不可或缺的核心工具之一。本日,我将通过一个简单的项目,使用PyTorch框架实现鸢尾花分类使命,具体记录从情况搭建到模子训练的全过程,帮助大家更好地理解和实践。
一、情况搭建

在开始之前,我们必要搭建合适的开辟情况。PyTorch是深度学习范畴中非常流行的框架,它提供了丰富的功能和机动的接口,方便我们构建和训练神经网络模子。
1. 创建Python情况

为了确保项目标独立性和稳定性,我们首先创建一个新的Python情况。在终端中运行以下命令:
  1. conda create -n DL python=3.8
  2. conda env list
  3. conda activate DL
复制代码
这将创建一个名为“DL”的情况,并安装Python 3.8版本
2. 安装须要的库

在激活情况后,我们必要安装一些常用的库。运行以下命令安装Jupyter和scikit-learn:
  1. conda install jupyter
  2. pip install scikit-learn
复制代码
接下来,安装PyTorch。由于PyTorch支持GPU加速,我们可以根据自己的硬件条件选择安装CPU版本或GPU版本。如果你的电脑配备了NVIDIA显卡,可以通过以下命令安装支持CUDA的PyTorch版本:
  1. pip install torch torchvision torchaudio
复制代码
如果你使用的是AMD显卡或苹果电脑,可以直接安装CPU版本的PyTorch:
  1. pip install torch torchvision torchaudio
复制代码
3. 检查CUDA情况

在安装完成后,我们必要检查CUDA是否可用。在Python情况中运行以下代码:
  1. import torch
  2. if torch.cuda.is_available():
  3.     print("CUDA可用!")
  4.     device_count = torch.cuda.device_count()
  5.     print(f"可用的CUDA设备数量: {device_count}")
  6.     current_device = torch.cuda.current_device()
  7.     print(f"当前使用的CUDA设备索引: {current_device}")
  8.     device_name = torch.cuda.get_device_name(current_device)
  9.     print(f"当前CUDA设备的名称: {device_name}")
  10.     cuda_version = torch.version.cuda
  11.     print(f"CUDA版本: {cuda_version}")
  12. else:
  13.     print("CUDA不可用。")
复制代码
如果输出显示CUDA可用,分析你的情况已经正确配置,可以使用GPU加速训练过程。
二、数据准备

数据是机器学习和深度学习的根本。在本项目中,我们使用经典的鸢尾花数据集。鸢尾花数据集是一个多变量数据集,包含150个样本,每个样本有4个特性,分为3个类别。
1. 加载数据集

使用scikit-learn库加载鸢尾花数据集:
  1. from sklearn.datasets import load_iris
  2. from sklearn.model_selection import train_test_split
  3. # 加载鸢尾花数据集
  4. iris = load_iris()
  5. X = iris.data  # 特征数据
  6. y = iris.target  # 标签数据
  7. # 划分训练集和测试集
  8. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
复制代码
2. 数据预处置惩罚

神经网络对输入数据的尺度非常敏感,因此我们必要对数据举行归一化处置惩罚。使用MinMaxScaler将特性值缩放到0到1的范围内:
  1. from sklearn.preprocessing import MinMaxScaler
  2. scaler = MinMaxScaler()
  3. X_train = scaler.fit_transform(X_train)
  4. X_test = scaler.transform(X_test)
复制代码
3. 转换为PyTorch张量

PyTorch使用张量(Tensor)作为数据的根本单位。将数据转换为张量,并确保标签数据的类型为torch.LongTensor:
  1. import torch
  2. X_train = torch.FloatTensor(X_train)
  3. y_train = torch.LongTensor(y_train)
  4. X_test = torch.FloatTensor(X_test)
  5. y_test = torch.LongTensor(y_test)
复制代码
三、模子构建

接下来,我们定义一个简单的全连接神经网络模子。该模子包含一个输入层、一个潜伏层和一个输出层。
1. 定义模子结构

  1. import torch.nn as nn
  2. import torch.optim as optim
  3. class MLP(nn.Module):
  4.     def __init__(self):
  5.         super(MLP, self).__init__()
  6.         self.fc1 = nn.Linear(4, 10)  # 输入层到隐藏层
  7.         self.relu = nn.ReLU()
  8.         self.fc2 = nn.Linear(10, 3)  # 隐藏层到输出层
  9.     def forward(self, x):
  10.         out = self.fc1(x)
  11.         out = self.relu(out)
  12.         out = self.fc2(out)
  13.         return out
  14. model = MLP()
复制代码
2. 定义丧失函数和优化器

对于分类使命,我们通常使用交叉熵丧失函数。同时,选择随机梯度下降(SGD)作为优化器:
  1. criterion = nn.CrossEntropyLoss()
  2. optimizer = optim.SGD(model.parameters(), lr=0.01)
复制代码
四、模子训练

训练是深度学习的核心环节。通过不断迭代优化模子参数,使模子可以或许更好地拟合训练数据。
1. 训练过程

设置训练轮数为20000轮,并在每100轮打印一次丧失值:
  1. num_epochs = 20000
  2. losses = []
  3. for epoch in range(num_epochs):
  4.     # 前向传播
  5.     outputs = model(X_train)
  6.     loss = criterion(outputs, y_train)
  7.     # 反向传播和优化
  8.     optimizer.zero_grad()
  9.     loss.backward()
  10.     optimizer.step()
  11.     # 记录损失值
  12.     losses.append(loss.item())
  13.     # 打印训练信息
  14.     if (epoch + 1) % 100 == 0:
  15.         print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')
复制代码
2. 训练效果

训练过程中,丧失值逐渐降低,表明模子在不断学习和优化。以下是部分训练输出:
  1. Epoch [100/20000], Loss: 1.0730
  2. Epoch [200/20000], Loss: 1.0258
  3. Epoch [300/20000], Loss: 0.9757
  4. ...
  5. Epoch [19900/20000], Loss: 0.0604
  6. Epoch [20000/20000], Loss: 0.0603
复制代码
五、效果可视化

为了更直观地展示训练过程,我们可以绘制丧失曲线。使用Matplotlib库绘制丧失值随训练轮数的变革:
  1. import matplotlib.pyplot as plt
  2. plt.plot(range(num_epochs), losses)
  3. plt.xlabel('Epoch')
  4. plt.ylabel('Loss')
  5. plt.title('Training Loss over Epochs')
  6. plt.show()
复制代码
从图中可以看出,随着训练轮数的增加,丧失值逐渐趋于稳定,表明模子已经收敛。
六、总结

通过本次实践,我深刻了解到了深度学习的魅力和强大功能。从情况搭建到模子训练,每一步都至关紧张。以下是本次实践的几点总结:

  • 情况搭建的紧张性:合适的开辟情况是项目顺遂举行的根本。通过创建独立的Python情况并安装须要的库,可以避免版本辩论和依赖问题。
  • 数据预处置惩罚的作用:数据的质量直接影响模子的性能。通过归一化处置惩罚,可以将特性值缩放到合适的范围,提高模子的训练效果。
  • 模子结构的设计:简单的全连接神经网络已经可以或许很好地完成鸢尾花分类使命。在现实应用中,可以根据使命的复杂度选择更复杂的网络结构。
  • 训练过程的优化:选择合适的丧失函数和优化器是训练成功的关键。通过不断调整学习率和训练轮数,可以优化模子的性能
  • 效果可视化的价值:通过绘制丧失曲线,可以直观地观察模子的训练过程,判定模子是否收敛。
@浙大疏锦行

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告
回复

使用道具 举报

×
登录参与点评抽奖,加入IT实名职场社区
去登录
快速回复 返回顶部 返回列表