在压缩高速成像这个细分赛道里,业内人都清楚一个核心痛点——想兼顾“高时空分辨率”和“高保真重建”,简直像走钢丝。传统技术要么栽在深度学习的“数据依赖症”上,不仅要喂海量标注数据,还容易出现伪影;要么被单一物理先验框架绑住手脚,面对复杂场景里的噪声、帧间串扰等多重干扰。

近日,中国科学院西安光学精密机械研究所(下称“西安光机所”)联合加拿大国立科学研究院(INRS)、西北大学的团队,拿出了一套多先验融合的创新方案,直接捅破了这层窗户纸。相关成果已发在《超快科学》(Ultrafast Science,IF 9.9)上,这份沉甸甸的成绩单,也让我国在超快光学成像领域的硬实力再获认可。
压缩高速成像作为困扰行业多年的重点难题尤其棘手——本质上就是个复杂的逆问题,传统方案始终绕不开短板。纯深度学习这条路,看似效率高,实则离不开大规模标注数据的“投喂”,而且“黑盒”特性让它泛化能力太差,只要测试场景和训练数据有点偏差,伪影就会冒出来,这在对精度要求苛刻的精密检测场景里,根本没法用。另一边,现有的物理增强框架又太“专一”,只盯着单一任务先验,碰到超快成像里的复合干扰,往往束手无策。
西安光机所团队提出的多先验物理增强神经网络(mPEN)成像框架,恰恰踩准了这些痛点。和传统方案比,它最妙的地方就是打破了单一先验的局限,把光致发光动力学物理模型、扩展采样先验、稀疏性约束、深度图像先验这些“帮手”,全都深度融入到非训练神经网络里。不用死磕海量训练数据,单靠这些互补先验的协同修正,就能从根上压住伪影、校正空间畸变,还能显著提升分辨率。更难得的是,即便在低光子这种极端成像条件下,它也能保持稳定表现,这也为后续落地到各类精密检测场景,打下了扎实的基础。
当然,好技术从来不是单靠算法撑起来的,硬件系统的协同设计同样关键。团队基于mPEN框架,搭起了一套双光路同步采集与多先验深度学习融合的压缩高速成像系统,整套装置的设计处处透着巧思。用脉冲激光当激发光源,通过数字微镜器件(DMD)加载伪随机图案给动态场景做空间编码,再把光信号拆成两条路走:编码路径靠振镜扫描把时间信息转换成空间剪切偏移,由CMOS相机捕获;先验采样路径则让另一台同步CMOS相机,直接采集场景的未编码积分图像。再加上数字延迟发生器和信号发生器的精密配合,实现了光源、振镜与双相机的毫秒级同步控制,最终总算做到了高空间分辨率和高保真高速动态成像“鱼与熊掌兼得”。
技术如何,数据为准。实验结果很亮眼:这套系统在33,000 fps的高帧率下,空间分辨率能达到~90.5 lp/mm,是基于TwIST算法的传统COSUP方法的3.56倍;图像锐度和保真度提升了约1.85倍,峰值信噪比(PSNR)平均提高4dB,传统技术里常见的伪影、畸变问题,被彻底解决了。不管是分辨率板的细节分辨,还是动态序列的一致性验证,这套系统的表现都站在了行业前列。
对仪器行业来说,技术突破的最终归宿,永远是落地应用。西安光机所团队已经率先把这项技术用到了食品安全检测上——借助稀土掺杂上转换纳米探针,成功在酒精溶液中实现了对合成色素苋菜红浓度的微秒级荧光寿命无损检测。这步突破太关键了:传统痕量物质检测,要么耗时久,要么得做复杂预处理,精度还跟不上。而这项技术凭着微秒级响应、无损检测、高保真重建的优势,给痕量物质快速精准分析开辟了一条新路子,未来不管是食品、医药,还是环境监测领域,都有很大的应用空间,也能带动一批检测仪器升级换代。
这份成果的背后,是西安光机所在超快光学领域数十年的沉淀。目前,该研究得到了国家自然科学基金、国家重点研发计划等项目的支持。随着技术不断优化推广,这套融合了多先验物理模型与深度学习的压缩高速成像技术,有望打破国外在高端超快成像仪器领域的垄断,给我国精密检测、生物医学、材料科学等领域,提供自主可控的核心技术支撑,真正开启高时空分辨成像仪器国产化的新篇章。
全部评论(0条)
SS-OCT成像 | OCTLIGHT高速扫频光源助力眼科快速成像!
2022-06-15
预算1874万元 河南省科学院生物医学研究所采购全自动活细胞成像平台
2024-11-19
2021-12-01
2023-02-02
2023-02-08
2024-11-01
①本文由仪器网入驻的作者或注册的会员撰写并发布,观点仅代表作者本人,不代表仪器网立场。若内容侵犯到您的合法权益,请及时告诉,我们立即通知作者,并马上删除。
②凡本网注明"来源:仪器网"的所有作品,版权均属于仪器网,转载时须经本网同意,并请注明仪器网(www.yiqi.com)。
③本网转载并注明来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
④若本站内容侵犯到您的合法权益,请及时告诉,我们马上修改或删除。邮箱:hezou_yiqi
参与评论
登录后参与评论