【机器学习】机器学习的基本分类-半监督学习-Ladder Networks ...

打印 上一主题 下一主题

主题 1522|帖子 1522|积分 4566

Ladder Networks 是一种半监督学习模型,通过将无监督学习与监督学习相结合,在标志数据较少的情况下实现高效的学习。它最初由 A. Rasmus 等人在 2015 年提出,特别适合深度学习任务,如图像分类或自然语言处理。

核心头脑

Ladder Networks 的目标是利用标志和未标志数据来优化网络性能。其关键头脑是引入噪声对网络举行练习,同时通过解码器恢复被粉碎的数据结构。它主要由以下三部分组成:

  • 编码器(Encoder):
    编码器是一个有噪声的前馈神经网络,用于从输入数据天生潜在表示。噪声会参加到各个层的激活值中。
  • 解码器(Decoder):
    解码器尝试从有噪声的编码器的潜在表示重建无噪声的输入数据。这个过程可以视为自编码器的一部分。
  • 丧失函数(Loss Function):
    丧失由两部分组成:

    • 监督丧失: 使用标志数据计算的分类误差(如交叉熵)。
    • 重建丧失: 解码器重建无噪声表示与原始无噪声数据之间的误差。

通过联合优化这两部分,网络能够同时举行监督学习和无监督学习。

模型架构

Ladder Networks 的架构如下:


  • 输入数据颠末多层网络,每一层引入噪声,天生一个有噪声的激活值
  • 解码器逐层重建这些激活值,最终输出重建的输入。
  • 使用标志数据举行分类任务,用未标志数据练习解码器,增强表示学习能力。
模型使用跳跃连接(Skip Connections)来资助解码器更好地恢复无噪声表示。

丧失函数

丧失函数分为两部分:

  • 监督丧失:
    使用分类任务中的标志数据,例如交叉熵:


  • 重建丧失:
    解码器的重建误差,例如均方误差:
                                                   
    其中,
    是无噪声激活值,
    是有噪声的激活值的解码结果,
    ​ 是每一层的权重。
总丧失是两者的加权和:


上风


  • 高效利用未标志数据:
    通过重建误差,未标志数据在网络练习中也能发挥作用。
  • 鲁棒性增强:
    参加噪声练习有助于防止过拟合,提高网络的泛化能力。
  • 层间交互建模:
    跳跃连接有助于捕获层间复杂的相互关系,从而提高表示能力。

应用



  • 图像分类:
    在 MNIST、CIFAR-10 等数据集上表现优异,尤其在标志样本少的情况下。
  • 半监督学习:
    在必要结合标志数据和未标志数据的任务中具有广泛应用。
  • 自然语言处理:
    用于词嵌入学习或序列天生任务。

示例代码

以下是基于 TensorFlow 的 Ladder Networks 简化实现:
  1. import tensorflow as tf
  2. from tensorflow.keras.layers import Dense, Dropout
  3. from tensorflow.keras.models import Model, Sequential
  4. # 噪声函数
  5. def add_noise(x, noise_std=0.3):
  6.     return x + tf.random.normal(tf.shape(x), stddev=noise_std)
  7. # 编码器
  8. def encoder(input_dim, latent_dim, noise_std=0.3):
  9.     model = Sequential([
  10.         Dense(128, activation='relu', input_dim=input_dim),
  11.         Dropout(0.3),
  12.         Dense(latent_dim, activation='relu'),
  13.         tf.keras.layers.Lambda(lambda x: add_noise(x, noise_std=noise_std))
  14.     ])
  15.     return model
  16. # 解码器
  17. def decoder(latent_dim, output_dim):
  18.     model = Sequential([
  19.         Dense(128, activation='relu', input_dim=latent_dim),
  20.         Dense(output_dim, activation='sigmoid')  # 重建输入
  21.     ])
  22.     return model
  23. # 输入维度
  24. input_dim = 784  # MNIST 数据集
  25. latent_dim = 64
  26. output_dim = input_dim
  27. # 构建模型
  28. encoder_model = encoder(input_dim, latent_dim)
  29. decoder_model = decoder(latent_dim, output_dim)
  30. # 输入数据
  31. input_data = tf.keras.Input(shape=(input_dim,))
  32. latent_repr = encoder_model(input_data)
  33. reconstructed = decoder_model(latent_repr)
  34. # 定义完整模型
  35. ladder_network = Model(inputs=input_data, outputs=reconstructed)
  36. ladder_network.compile(optimizer='adam', loss='mse')
  37. # 示例训练
  38. (X_train, _), (_, _) = tf.keras.datasets.mnist.load_data()
  39. X_train = X_train.reshape(-1, 784).astype('float32') / 255.0
  40. ladder_network.fit(X_train, X_train, epochs=10, batch_size=128)
复制代码

输出结果
  1. Epoch 1/10
  2. 469/469 [==============================] - 2s 3ms/step - loss: 0.0471
  3. Epoch 2/10
  4. 469/469 [==============================] - 1s 3ms/step - loss: 0.0271
  5. Epoch 3/10
  6. 469/469 [==============================] - 2s 3ms/step - loss: 0.0233
  7. Epoch 4/10
  8. 469/469 [==============================] - 1s 3ms/step - loss: 0.0215
  9. Epoch 5/10
  10. 469/469 [==============================] - 1s 3ms/step - loss: 0.0204
  11. Epoch 6/10
  12. 469/469 [==============================] - 1s 3ms/step - loss: 0.0197
  13. Epoch 7/10
  14. 469/469 [==============================] - 1s 3ms/step - loss: 0.0191
  15. Epoch 8/10
  16. 469/469 [==============================] - 1s 3ms/step - loss: 0.0186
  17. Epoch 9/10
  18. 469/469 [==============================] - 1s 3ms/step - loss: 0.0182
  19. Epoch 10/10
  20. 469/469 [==============================] - 1s 3ms/step - loss: 0.0178
复制代码


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

灌篮少年

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表