林逸晗助理教授

邮 箱linyh@xmu.edu.cn

地 址厦门大学思明校区亦玄馆

个人简介:

林逸晗,2016-2020年就读于清华大学精密仪器系本科,2025年于清华大学精密仪器系取得博士学位。近五年以一作或共同一作身份在Nature、 Nature Computational Science等国际顶级期刊期刊和会议发表论文7篇。入选中国科协青年人才托举工程博士生专项计划(首批)。

人工智能的发展推动智能系统迈向开放复杂环境。以“天眸芯”为代表的类脑视觉传感器,为智能系统提供了全新的信息输入平台。其具备高稀疏性、高时空分辨率、多模态互补与多通路并行等特征,以极低的带宽和功耗实现远超传统视觉系统的采样速度与动态范围。目前,本人正基于第一代互补类脑视觉芯片——天眸芯(Nature封面文章工作),围绕底层视觉、基础视觉模型、鲁棒视觉感知和边缘端机器人应用开展工作研究。主导建设围绕天眸芯的算法生态体系。目前负责管理维护TianMouCV项目组,主页见 https://github.com/Tianmouc 。相关研究将与清华大学类脑计算研究中心深度合作。

个人主页:https://lyh983012.github.io


研究方向:

[1]类脑视觉传感器:智能互补视觉传感器芯片,算法、软件、数据

[2]学习理论:数据高效的视觉表示学习方法,理论分析和实现

[3]应用算法:脑启发算法和机器人应用算法


招生情况:

[1] 每年预期招收研究生1-2名,从事类脑视觉传感器的算法和应用研究,需具备扎实的深度学习和计算机视觉基础,有相关论文和竞赛经历者优先。欢迎具有机械、仪器、电子、自动化等专业背景的同学推免或报考研究生(可推荐优秀学生去清华大学精仪系,中科院自动化所等深造或实习)。

[2] 欢迎本科生同学加入团队开展科研、创新工作,长期招收各校实习生(地点可在厦门、北京、上海),和清华大学类脑计算研究中心共同开展计算成像、具身智能、类脑计算等领域的实习和科研竞赛项目,实习目标为CCF-A类会议文章或期刊。

详情见:https://mp.weixin.qq.com/s/SDxftqKv5hAcJ_Al_NgjOA


荣誉奖励:

[1] 第二届“祖冲之奖”——人工智能前沿创新奖(2025)

[2] 中国科协青年人才托举工程博士生专项计划(首批,2024)

[3] 世界互联网大会领先科技奖(2024)

[4] 两院院士评选2024年中国十大科技进展新闻

[5] 中国神经科学重大进展(2024)

[6] 清华大学优秀博士学位论文(2025)

[7] 清华大学优秀毕业生(2020,2025)

[8] 北京市优秀毕业生(2020,2025)

[9] 国家奖学金(2018,2024),仪器仪表学会一等奖学金(2024),郑连发奖学金(2024)等


学术活动:

[1] TNNLS, IJCNN, and Frontiers in Neurorobotics等期刊审稿人

[2] 类脑视觉感知的挑战和机遇,口头报告,第二届智能传感与微纳制造研讨会暨2025年厦门市科协年会

[3] Brain-inspired general intellgence, Brain-inspired General Intelligence workshop, invited talk, Austria, 2024


一作/共同一作发表论文:

[1] Y. Meng†, Y. Lin†, et. al., ICCV 2025(已接收,CCF-A,计算机视觉国际顶级会议)

[2] Y. Lin†, Z. Zhang† et. al. IROS 2025(已接收,CCF-C,机器人控制国际顶级会议)

[3] Z. Yang†, T. Wang†, Y. Lin†, et. al.,”A vision chip with complementary pathways for open-world sensing. Nature 629, 1027–1033 (2024). (封面文章,中科院综合1区顶刊,受央视、新华社,清华大学官网等诸多媒体报道,IF: 50.5)

[4] L. He†, Y. Xu†, W. He†, Y. Lin†. et al. Network model with internal complexity bridges artificial intelligence and neuroscience. Nat Comput Sci (2024). (Nature子刊,受新华社等诸多媒体报道,JCR Q1, IF:12)

[5] Y. Lin, Y. Hu, S. Ma, D. Yu and G. Li, “Rethinking Pretraining as a Bridge From ANNs to SNNs,” in IEEE Transactions on Neural Networks and Learning Systems, 2022, doi: 10.1109/TNNLS.2022.3217796. (中科院计算机科学1区顶刊,CCF-B IF:10.2)

[6] Y. Lin†,J. Sun†, et al., “Spatiotemporal Input Control: Leveraging Temporal Variation in Network Dynamics,” in IEEE/CAA Journal of Automatica Sinica, vol. 9, no. 4, pp. 635-651, April 2022, doi: 10.1109/JAS.2022.105455. (中科院计算机科学1区顶刊IF:15.3)

[7] Y. Lin, W. Ding, S. Qiang, et al., (2021) ES-ImageNet: A Million Event-Stream Classification Dataset for Spiking Neural Networks. Front. Neurosci. 15:726582. doi: 10.3389/fnins.2021.726582


合作论文:

[1] Z. Wu, H. Zhang, Y. Lin. et al. LIAF-Net: Leaky Integrate and Analog Fire Network for Lightweight and Efficient Spatiotemporal Information Processing. 2021, IEEE Transactions on Neural Networks and Learning Systems, PP(99):1-14.

[2] M. Yao, H. Gao, G. Zhao, D. Wang, Y. Lin, et al. Temporal-wise Attention Spiking Neural Networks for Event Streams Classification. IEEE International Conference on Computer Vision 2021 (ICCV2021), poster.

[3] S. Ma, J. Pei, W. Zhang, G. Wang, D. Feng et. al, Neuromorphic computing chip with spatiotemporal elasticity for multi-intelligent-tasking robots. 2022, Science Robotics, vol. 7, no. 67, pp. eabk2948. doi:10.1126/scirobotics.abk2948

发布时间:2025年08月22日 15:14  浏览次数:打印此页】【关闭


上一篇:陈云 下一篇:徐周毅

Copyright © 厦门大学萨本栋微米纳米科学技术研究院