IT评测·应用市场-qidao123.com
标题:
【AI学习】Mamba学习(一):总体架构
[打印本页]
作者:
慢吞云雾缓吐愁
时间:
2024-12-24 22:18
标题:
【AI学习】Mamba学习(一):总体架构
论文:《Mamba: Linear-Time Sequence Modeling with Selective State Spaces》
作者1:Albert Gu,现在是CMU(卡内基梅隆大学)助理教授,曾在DeepMind 工作。多年来不绝推动SSM架构发展。
作者2:Tri Dao,现为普林斯顿大学计算机科学助理教授。Together AI的首席科学家。斯坦福大学计算机科学系博士毕业。
文章地址:https://arxiv.org/abs/2312.00752
项目地址:https://github.com/state-spaces/mamba.
复制代码
总体架构
先直接来看一下论文的总体架构。Mamba架构是结合了H3和门控MLP两个架构形成的组合架构,下面的图很清楚。
架构图:我们的简化块筹划,将H3块(大多数SSM架构的基础)与当代神经网络中无处不在的MLP块相结合。我们只是均匀地重复Mamba块,而不是交织这两个块。与H3块相比,Mamba用激活函数替换了第一个乘法门。与MLP块相比,Mamba在主分支中添加了一个SSM。对于
欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/)
Powered by Discuz! X3.4