科技日报讯 (记者韩荣)记者6月26日从山西大学获悉,该校大数据科学与产业研究院教授钱宇华带领的演化数据智能团队在通用三维形貌重建领域取得重要科学发现,相关论文日前发表于国际人工智能领域顶级期刊《IEEE模式分析与机器智能汇刊》。
论文第一作者、山西大学大数据科学与产业研究院副教授闫涛介绍,团队首次从理论上证明了三维形貌重建多视图融合类方法的一种泛化误差界。一般认为,多视图融合性能依赖于多视图互补性,而团队此次研究发现,跨尺度多视图融合类任务性能依赖于多视图一致性,多视图之间的一致性越大,重建泛化误差界越小。
随着智能制造、虚拟现实等技术的发展,宏观/微观跨尺度三维形貌重建面临三大挑战:一是成像特征差异大,宏观场景与微观场景难以统一建模;二是现有深度学习方法泛化能力不足,难以适应复杂实际场景;三是传统方法在序列图像关联特征提取方面存在缺陷,时空信息利用不充分制约了精度提升。
针对上述挑战,本研究创新性地提出了序列关联引导的通用三维形貌重建框架SAS,揭示了多视图一致性对提升重建精度的关键作用,理论上获得了一种紧的泛化误差界,为宏观/微观跨尺度重建提供了理论保障。在方法方面,该研究通过构建序列关联机制,实现了宏观场景语义信息与微观场景细节特征的有机融合,突破了传统方法在跨尺度重建中的局限性。同时,该研究还显著提升了宏观场景的重建质量,更将三维重建精度推进至亚微米级光学成像极限,为精密制造、生物医学等领域的微观测量提供了新技术手段。
研究在多个宏观与微观数据场景中进行了实验验证,结果表明SAS框架不仅优于先进的模型设计类聚焦形貌恢复(SFF)方法,而且在泛化性方面优于主流的深度学习类SFF方法,特别是在开放世界的宏观/微观场景中表现出卓越适应性。