2024年顶会、顶刊SNN相关论文----------持续更新中
原文链接:https://blog.csdn.net/qq_43622216/article/details/135167498
个人收集精力有限,欢迎各位评论或者私信告知SNN相关论文研究!
2024年顶会、顶刊SNN相关论文
目录
说明
这篇博客主要用于记录2024年在一些顶会顶刊(AAAI、CVPR等)上发表的SNN相关的论文,会附上相关论文的链接及简单介绍,正在更新中…
更新SNN相关论文、动态信息,欢迎浏览讨论!
AAAI 2024(共15篇)
- 论文1: Shrinking Your TimeStep: Towards Low-Latency Neuromorphic Object Recognition with Spiking Neural Networks
- 由电子科技大学左琳教授团队发表于AAAI 2024。(暂无链接)
- 提出了Shrinking SNN (SSNN),将SNN划分为多个阶段,每个阶段的时间步长逐渐收缩,实现低时间步长的神经形态目标识别。(一个异质性时间步长的SNN)
- 在SNN每个阶段后额外加入分类器,与标签计算损失,缓解代理梯度和真实梯度的不匹配、梯度爆炸/消失问题,从而提升SNN的性能。
-
论文2: Ternary Spike: Learning Ternary Spikes for Spiking Neural Networks
- 由中国航天科工集团公司智能科学技术研究院研究人员发表于AAAI 2024。
- 提出了ternary spike neuron产生0/1/-1脉冲,并在三元脉冲神经元中嵌入了一个可训练因子来学习合适的脉冲幅值,这样的SNN会逐层采用不同的脉冲幅值α,从而更好地适应膜电位逐层分布不同的现象。
- 在推理时,通过重参数化将可训练的三元脉冲SNN再次转换为标准SNN。
-
论文3: Memory-Efficient Reversible Spiking Neural Networks
- 由浙江大学研究人员发表于AAAI 2024。
- 提出了reversible SNN以降低直接训练SNN的内存开销,每一层的输入变量和膜电位可以通过其输出变量重新计算而无需在内存中存储。
- 设计了Spiking reversible block用于构建Reversible spiking residual neural network和Reversible spiking transformer。
-
论文4: Gated Attention Coding for Training High-performance and Efficient Spiking Neural Networks
-
由电子科技大学大学、加利福尼亚大学、中科院自动化所(李国齐团队)研究人员发表于AAAI 2024。
-
提出了Gated Attention Coding (GAC)对输入应用注意力机制进行编码。
-
Gated Attention Unit (GAU):使用CBAM提取时间维度的注意力分数;使用共享的2D卷积提取每个时刻的通道-空间注意力分数。
-
论文5: DeblurSR: Event-Based Motion Deblurring Under the Spiking Representation
-
由德克萨斯大学奥斯汀分校研究人员发表于AAAI 2024。
-
暂无链接
-
论文7: An Efficient Knowledge Transfer Strategy for Spiking Neural Networks from Static to Event Domain
-
暂无链接
-
论文8: Enhancing Representation of Spiking Neural Networks via Similarity-Sensitive Contrastive Learning
-
暂无链接
-
论文9: Efficient Spiking Neural Networks with Sparse Selective Activation for Continual Learning
-
暂无链接
-
论文10: Spiking NeRF: Representing the Real-World Geometry by a Discontinuous Representation
-
由浙江大学潘纲教授团队发表于AAAI 2024。
-
论文11: SpikingBERT: Distilling BERT to Train Spiking Language Models Using Implicit Differentiation
-
由宾夕法尼亚州立大学研究人员发表于AAAI 2024。
-
提出了一个spiking language model (LM)。利用模型的稳态收敛性,引入了一种可操作的脉冲注意机制,提出了一种新的基于ANN-SNN的KD,以实现更快、更有效的学习,并探索了使用基于隐式微分的技术训练spiking LMs,从而克服了影响基于SNN架构训练的多个问题。
-
论文12: TC-LIF: A Two-Compartment Spiking Neuron Model for Long-term Sequential Modelling
-
由香港理工大学(Kay Chen Tan团队)、新加坡国立大学、香港中文大学(深圳)研究人员发表于AAAI 2024。
-
给出了P-R锥体神经元的泛化公式:两房室神经元。
-
基于P-R椎体神经元,设计了Two-Compartment(TC)-LIF神经元以促进长期的序列建模。
-
论文13: Enhancing Training of Spiking Neural Network with Stochastic Latency
-
暂无链接
-
论文14: Enhancing the robustness of spiking neural networks with stochastic gating mechanisms
-
由北京大学(黄铁军、于肇飞组)研究人员发表于AAAI 2024。暂无链接
-
暂无链接
-
以下是部分与spik相关的论文
Point-to-Spike Residual Learning for EnergyEfficient 3D Point Cloud Classification
IJCAI 2024
ICLR 2024
ICML 2024
ECCV 2024
CVPR 2024
NeurIPS 2024
ICASSP 2024
本文出自于CSDN-lan人啊,转载请注明!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!