北冰洋以北 发表于 2025-1-4 00:59:10

【呆板学习】-深度学习模子

深度学习模子介绍

深度学习是呆板学习的一个分支,它通过构建多层的神经网络模子来模拟人脑的工作机制。深度学习模子具有强大的特征提取和表示本领,在图像辨认、语音辨认、自然语言处理等范畴取得了显著的成果。
重要组成部门



[*]输入层:吸收原始数据,如图像像素值或文本词向量。
[*]隐蔽层:由多个神经元组成,负责对输入数据进行复杂的非线性变换,每一层都可以看作是对前一层输出的一种抽象表示。
[*]输出层:给出最终猜测结果,例如分类使命中的种别概率分布。
常见类型


[*] 卷积神经网络(CNN)

[*]适用于处理具有网格结构的数据,如二维图像。
[*]特点:局部连接、权值共享、池化操纵等。

[*] 循环神经网络(RNN)及其变体LSTM/GRU

[*]得当处理序列数据,能够捕获时间依赖关系。
[*]解决是非期记忆问题,克制梯度消失。

[*] 天生对抗网络(GAN)

[*]包含天生器与判别器两个部门,相互对抗训练。
[*]应用于图像天生、风格迁徙等创意使命。

[*] Transformer

[*]引入自注意力机制,有效处理长距离依赖。
[*]在自然语言处理范畴体现良好,如BERT、GPT系列模子。

实例:使用TensorFlow实现简单的MNIST手写数字辨认

import tensorflow as tf
from tensorflow.keras import layers, models

# 加载MNIST数据集
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0# 归一化

# 构建模型
model = models.Sequential([
    layers.Flatten(input_shape=(28, 28)),# 将28x28的图像展平成784维向量
    layers.Dense(128, activation='relu'),# 全连接层
    layers.Dropout(0.2),                   # Dropout层防止过拟合
    layers.Dense(10)                     # 输出层,对应10个类别
])

# 编译模型
loss_fn = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)
model.compile(optimizer='adam', loss=loss_fn, metrics=['accuracy'])

# 训练模型
model.fit(x_train, y_train, epochs=5)


# 评估模型
model.evaluate(x_test, y_test, verbose=2)

实例详细解释

我们将逐步剖析上述代码
1. 导入必要的库

import tensorflow as tf
from tensorflow.keras import layers, models


[*]tensorflow:深度学习框架,提供了构建、训练和摆设呆板学习模子所需的工具。
[*]layers 和 models:来自Keras API,用于界说神经网络的层和模子结构。
2. 加载MNIST数据集

mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0# 归一化


[*]mnist.load_data():加载MNIST手写数字数据集,返回训练集和测试集。每个样本是一个28x28像素的灰度图像,标签是0到9之间的整数。
[*]归一化:将图像像素值从0-255缩放到0-1之间,以便于模子更好地收敛。x_train / 255.0表示将训练集图像的像素值除以255。
3. 构建模子

model = models.Sequential([
    layers.Flatten(input_shape=(28, 28)),# 将28x28的图像展平成784维向量
    layers.Dense(128, activation='relu'),# 全连接层
    layers.Dropout(0.2),                   # Dropout层防止过拟合
    layers.Dense(10)                     # 输出层,对应10个类别
])


[*]Sequential:顺序模子,按照从输入到输出的顺序堆叠各个层。
[*]Flatten:将28x28的二维图像展平成一维向量(784个元素),作为全连接层的输入。
[*]Dense:全连接层,第一个参数指定该层神经元的数量,activation='relu'指定了激活函数为ReLU(Rectified Linear Unit)。
[*]Dropout:随机抛弃一部门神经元,防止模子过拟合。0.2表示每次训练时随机抛弃20%的神经元。
[*]最后一个Dense层:输出层,包含10个神经元,对应10个种别(0到9的数字)。
4. 编译模子

loss_fn = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)
model.compile(optimizer='adam', loss=loss_fn, metrics=['accuracy'])


[*]SparseCategoricalCrossentropy:丧失函数,用于多分类使命。from_logits=True表示模子输出的是未经softmax处理的logits。
[*]optimizer='adam':优化算法,Adam是一种自顺应学习率的优化算法,通常比传统的SGD(随机梯度下降)更有效。
[*]metrics=['accuracy']:评估指标,这里选择准确率(accuracy)来衡量模子性能。
5. 训练模子

model.fit(x_train, y_train, epochs=5)


[*]fit:开始训练模子。x_train和y_train分别是训练集的输入和标签,epochs=5表示训练5轮(每个epoch遍历一次整个训练集)。
6. 评估模子

model.evaluate(x_test, y_test, verbose=2)


[*]evaluate:在测试集上评估模子性能。x_test和y_test分别是测试集的输入和标签,verbose=2表示显示详细的评估过程。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 【呆板学习】-深度学习模子