本报讯(记者 关颖)当一只猫咪在不到一秒内从沙发跃向猫爬架时,想要完整捕捉它腾空、舒展、落地的每一个帅气瞬间,传统相机往往要么遗漏关键画面,要么拍出一堆模糊重影。近日,中国科学院西安光机所光谱成像技术研究室王荃研究员团队,在解决这类“高速动态成像难题”上取得重要突破,其创新性提出的基于“渐进式退化估计与去噪(PDE-D)”主干网络的深度展开框架,为动态场景高质量重建打开了全新技术路径。
快照压缩成像,被形象地称为“时空折叠”技术。对比传统拍照就能直观感受到快照压缩成像的技术优势。拿猫咪跳跃来说,想要记录猫咪8个跳跃动作,传统相机需要连拍8次,不仅需占用16MB存储空间,稍不留神就会错过最精彩的空中姿态;而快照压缩成像只需按一次快门,就能将多个瞬间叠加压缩进一张“底片”,存储空间不足0.7MB,且真正实现了不漏帧、省空间、传输快。
虽然快照压缩成像优势明显,但也存在一个“痛点”:多个运动画面叠加后,极易出现模糊重影,目标运动速度越快,伪影干扰越严重,且图像失真、细节丢失问题突出,传统算法始终难以“根治”。针对运动视频快照压缩成像中,帧间剧烈变化、时域复用伪影等传统方法难以突破的核心瓶颈,王荃团队设计的新框架给出了最优解。该技术采用逐级展开架构,在每一阶段同步协同“退化估计”与“去噪”两大模块,实现了结构与算法上的双重创新。
王荃研究员解释说,“退化估计”模块专注修正重建偏差,通过可学习的残差校正机制,对二维测量数据精细打磨,有效抑制非均匀伪影;“去噪”模块则首创“自适应时空协同”机制,无需繁琐的位置对齐计算,就能实现时序信息一致性约束与高清细节恢复,让算法在复杂高速运动场景中表现更稳定、更精准。
通俗地讲,这项成果相当于给成像系统装上了一个“超级解压大脑”。“传统算法试图一次性拆分重叠画面,结果常常导致主体模糊、细节丢失;而新技术采取‘逐级精修’模式,先理清整体轮廓,再逐步修复纹理细节,像文物修复师一样层层剥离伪影,让模糊重影变回清晰完整的图像。”王荃说,凭借自适应时空协同能力,算法可以智能感知物体运动规律,不用逐点核对位置,就能让高速运动的画面连贯自然,即便猫咪快速跳跃,也能清晰还原每一根毛发、每一个肢体姿态。
这项从“猫咪跳跃”场景验证的硬核技术,在现实中拥有广阔应用空间。在自动驾驶领域,该技术可快速捕捉“突发行人”与障碍物,以极小数据量实现精准动态感知,提升响应速度与行车安全;在智慧交通场景中,能够对高速行驶车辆实现单次曝光高清抓拍,清晰识别车牌与行驶状态;在医疗成像方面,可一次性捕捉心跳、血流等动态生理过程,高清还原细微变化,辅助精准诊断。在公共安全监测、工业高速检测等场景中,该技术同样能在低照度、高动态环境下,实现高效清晰的信息采集与分析。
据悉,随着这项技术成果持续落地转化,将进一步赋能智能交通、医疗健康、公共安全、工业制造等多个领域,用更先进的光学成像技术,为城市安全、医疗诊断与智能制造提供坚实支撑。



