农妇山泉一亩田 发表于 2025-3-9 19:07:33

论文阅读 EEG-TCNet

EEG-TCNet: An Accurate Temporal Convolutional Network for Embedded Motor-Imagery Brain–Machine Interfaces

1. Intrduction

        本文提出了一种新颖的时间卷积网络(TCN),在需要很少的可训练参数的环境下实现了出色的精度。EG-TCNET成功地推广了单个数据集,通过0.25的元效应优于MOABB的当前最新技术水平(SoA)。具有EEGNet的紧凑性和TCN的高精度。
        具有2.5 k参数和13个MMAC的 EEGNet:​ 13 百万次 MACs:表示模子完成一次推理需要执行 13,000,000 次乘加运算.
        当在长输入序列上训练时,TCN不会遭受特殊是爆发或消失的梯度标题。
        EEG-TCNET只需要4272个可训练参数和每个推理6.8个MMAC。
17、EEG-TCNet:论文解读+模子复现+BCI IV2a测试-CSDN博客
2. BACKGROUND

2.1  深度学习的MI分类

        深度学习的MI分类分为两类:特征输入(FI)网络和原始信号输入(RSI)网络。后者联合收割同时组合和训练特征提取和分类过程。
        (FI)网络:
        (RSI)网络:MSFBCNN 、MI-BMI、EEGNet 、Shallow ConvNet
2.2 TCN

https://i-blog.csdnimg.cn/direct/fe5c6f96c69f40e491f46a7afebe08e3.png

        1、因果卷积:tcn产生与输入类似长度的输出。为此,tcn使用1D全卷积网络(FCN)架构,其中每个隐藏层的大小与输入层类似,此外,因果循环被用来阻止信息流从未来流向过去。简单地说,时刻t的输出只取决于时刻t和更早的输入。
        2、空洞卷积:一个规则的因果卷积只能在网络的深度上线性地增长它的担当域大小。这是一个重要的缺点,由于要么需要一个非常深的网络,要么需要一个巨大的内核大小来得到一个大的担当域大小。为了解决这个标题,tcn使用扩展卷积,这允许网络通过增长扩张因子d,以指数方式增长其担当野的大小,与网络深度成正比。
        3、残差块(Residual Blocks): TCN的残差块由两层扩展卷积组成,具有批处理归一化、Relu和卷积之间的dropout层。只管tcn只具有1D卷积的特征,但它们仍然可以或许处理二维特征图。跳过连接将输入添加到输出特征映射,并检查如果输入和输出的深度不同,则将1x1卷积放置。
        通过堆叠残差块,感受野大小随着每个残差成指数增长,由于每个后续堆叠块膨胀因子d成指数增长,TCN感受野变化为:
https://i-blog.csdnimg.cn/direct/70dd02d3b1c24ec6841cc9a19b517289.png
3. METHODOLOGY

3.1. Data Pre-processing

        时间范围是MI提示之前0.5秒,直到MI结束,产生4.5 s长度的时间序列,1125个样本。采样率250 Hz,不应用额外的带通滤波。
3.2. EEG-TCNET

https://i-blog.csdnimg.cn/direct/909d9d0f3664447fb6a1126a0102ddc5.png
4. 代码复现



免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 论文阅读 EEG-TCNet