我院发布一种新型微观DFF数据集M3D
近日,由闫涛副教授(第一作者)、2022级硕士研究生王莹莹、钱宇华教授(通讯作者)、2023级博士研究生张江峰、李飞江副教授、吴鹏副教授、陈路副教授、贾洁茹副教授和郭小英副教授完成的研究成果《M3D:微观三维形状重建基准数据集与模型》被图像处理领域国际顶级期刊《IEEE Transactions on Image Processing》(TIP,影响因子13.7)录用。
该研究针对多聚焦图像三维形貌重建(DFF)领域长期存在的一个关键问题:现实世界场景中高质量标注数据严重匮乏。现有DFF数据集不仅在规模上受限,多样性也显不足,且多数样本集中于宏观尺度场景,与微观场景之间存在显著的数据鸿沟(图1)。这些局限性严重制约了面向微观尺度DFF的鲁棒性深度学习方法的开发。

图1 现有DFF数据集与微观场景数据具有明显数据鸿沟
因此,我院基于自主研发的显微设备构建了一种新型微观DFF数据集M3D(图2),涵盖五个类别,共包含1952个场景的多焦点图像序列,其深度标签通过将密集图像序列输入团队前期提出的3D TFT算法进行初始深度估计并经校准后获得。同时,研究还提出了一种频率感知的端到端网络M3DNet,旨在应对微观场景中浅景深与弱纹理等关键挑战。

图2 M3D数据集的构建过程
该研究提出的M3D数据集弥补了宏观DFF数据集的局限性,并将DFF应用扩展到微观场景。M3DNet通过利用更优的全局特征提取,有效捕捉了快速的焦点衰减,并在公共DFF数据集上提升了性能。此外,即使在极端条件下,它也表现出强大的鲁棒性。
该研究工作得到国家自然科学基金重大项目(T2495250、T2495251)、国家自然科学基金重点项目(62136005)、国家自然科学基金((62472268, 62373233, 62476160),中央引导地方科技发展资金项目(YDZJSX20231C001, YDZJSX20231B001)等支持。
TIP期刊于1992年建刊,是国际上公认的图像处理领域顶级期刊,被中国计算机学会(CCF)推荐为A类期刊,主要刊登图像处理领域的高质量前沿研究成果。
