运维.售后
论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
博客
Blog
ToB门户
了解全球最新的ToB事件
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
大数据
›
数据仓库与分析
›
跟李沐学AI:长短期记忆网络LSTM
跟李沐学AI:长短期记忆网络LSTM
农妇山泉一亩田
金牌会员
|
2024-9-12 13:13:44
|
显示全部楼层
|
阅读模式
楼主
主题
880
|
帖子
880
|
积分
2640
输入们、忘记门和输出门
LSTM引入输入门、忘记门和输出门
输入门计算公式为:
。
忘记门计算公式为:
。
输出门计算公式为:
。
它们由三个具有sigmoid激活函数的全连接层处理, 以计算输入门、忘记门和输出门的值。 因此,这三个门的值都在(0,1)的范围内。
候选记忆元
雷同RNN中的
,计算公式为:
。
记忆元
LSTM中,输入门和忘记门雷同GRU中控制输入或忘记的机制。输入们用于控制接纳多少来自
的新数据,忘记门用于控制保留多少已往的记忆元
的内容。随后按元素乘法,得出
。
假如忘记门始终为1且输入门始终为0, 则已往的记忆元Ct−1 将随时间被生存并通报到当前时间步。 引入这种计划是为了缓解梯度消失题目, 并更好地捕捉序列中的长距离依靠关系。
隐状态
LSTM中,输出门用于计算隐状态:
。只要输出门靠近1,我们就能够有效地将所有记忆信息通报给预测部分, 而对于输出门靠近0,我们只保留记忆元内的所有信息,而不必要更新隐状态。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
正序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
发新帖
回复
农妇山泉一亩田
金牌会员
这个人很懒什么都没写!
楼主热帖
厉害了,腾讯云云巢荣获信通院“云原生 ...
2022 春节抖音视频红包系统设计与实现 ...
数据库概述
【Redis高手修炼之路】②Redis的五大数 ...
原型设计工具比较及实践--滴爱音乐 ...
多线程(一)-两种创建线程的方式 ...
OpenHarmony和HarmonyOS有什么区别?这 ...
ABP Framework 5.3.0 版本新增功能和变 ...
Kafka原理介绍+安装+基本操作(kafka o ...
【视频】k8s套娃开发调试dapr应用 - 在 ...
标签云
存储
服务器
快速回复
返回顶部
返回列表