去皮卡多 发表于 2024-8-19 17:50:13

AIGC实战——改进循环神经网络

0. 前言

我们已经学习了如何训练长短期记忆网络 (Long Short-Term Memory Network, LSTM) 模型,以学习使用给定风格天生文本,接下来,我们将学习如何扩展此模型,已得到更加优异的文本天生效果。
1. 堆叠循环网络

在自回归模型一节中构建的 LSTM 神经网络仅包含一个 LSTM 层,我们也可以训练多层堆叠的 LSTM 网络,以便从文本中学习更深层次的特性。
为了实现堆叠 LSTM 网络,我们只需在第一层之后引入另一个 LSTM 层,并将第一个 LSTM 层中的 return_sequences 参数设置为 True,如许一来,第一个 LSTM 层就会输出全部时间步的隐藏状态,而不仅仅是最后一个时间步。第二个 LSTM 层可以使用第一层的隐藏状态作为其输入数据,模型架构如下图所示:
https://i-blog.csdnimg.cn/blog_migrate/232f6556df0b292c044d6a2634e3b7c0.png#pic_center
使用 Keras 构建堆叠 LSTM 神经

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: AIGC实战——改进循环神经网络