中国科技报 12小时前
[前 沿] 新方法显著提升三维形貌重建精度
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

山西大学大数据科学与产业研究院钱宇华教授团队在三维形貌重建领域取得重要突破,相关研究成果发表于国际顶级期刊《IEEE模式分析与机器智能汇刊》。该团队首次从理论上证明了三维形貌重建多视图融合类方法的泛化误差界,并提出序列关联引导的通用三维形貌重建框架SAS,解决了宏观/微观跨尺度三维形貌重建面临的挑战,提升了重建精度,为精密制造、生物医学等领域提供了新技术手段。

💡研究团队首次从理论上证明了三维形貌重建多视图融合类方法的一种泛化误差界,认为跨尺度多视图融合任务性能依赖于多视图一致性,一致性越大,重建泛化误差界越小。

⚙️针对智能制造、虚拟现实等技术发展带来的挑战,研究团队提出了序列关联引导的通用三维形貌重建框架SAS。该框架构建了序列关联机制,实现了宏观场景语义信息与微观场景细节特征的有机融合。

🔬SAS框架显著提升了宏观场景的重建质量,并将三维重建精度推进至亚微米级光学成像极限,为精密制造、生物医学等领域的微观测量提供了新技术手段。

✅实验验证表明,SAS框架在多个宏观与微观数据场景中,不仅优于先进的模型设计类聚焦形貌恢复方法,而且在泛化性方面优于主流的深度学习类方法,尤其在开放世界的宏观/微观场景中表现出卓越适应性。

    科技日报讯 (记者韩荣)记者6月26日从山西大学获悉,该校大数据科学与产业研究院教授钱宇华带领的演化数据智能团队在通用三维形貌重建领域取得重要科学发现,相关论文日前发表于国际人工智能领域顶级期刊《IEEE模式分析与机器智能汇刊》。

    论文第一作者、山西大学大数据科学与产业研究院副教授闫涛介绍,团队首次从理论上证明了三维形貌重建多视图融合类方法的一种泛化误差界。一般认为,多视图融合性能依赖于多视图互补性,而团队此次研究发现,跨尺度多视图融合类任务性能依赖于多视图一致性,多视图之间的一致性越大,重建泛化误差界越小。

    随着智能制造、虚拟现实等技术的发展,宏观/微观跨尺度三维形貌重建面临三大挑战:一是成像特征差异大,宏观场景与微观场景难以统一建模;二是现有深度学习方法泛化能力不足,难以适应复杂实际场景;三是传统方法在序列图像关联特征提取方面存在缺陷,时空信息利用不充分制约了精度提升。

    针对上述挑战,本研究创新性地提出了序列关联引导的通用三维形貌重建框架SAS,揭示了多视图一致性对提升重建精度的关键作用,理论上获得了一种紧的泛化误差界,为宏观/微观跨尺度重建提供了理论保障。在方法方面,该研究通过构建序列关联机制,实现了宏观场景语义信息与微观场景细节特征的有机融合,突破了传统方法在跨尺度重建中的局限性。同时,该研究还显著提升了宏观场景的重建质量,更将三维重建精度推进至亚微米级光学成像极限,为精密制造、生物医学等领域的微观测量提供了新技术手段。

    研究在多个宏观与微观数据场景中进行了实验验证,结果表明SAS框架不仅优于先进的模型设计类聚焦形貌恢复(SFF)方法,而且在泛化性方面优于主流的深度学习类SFF方法,特别是在开放世界的宏观/微观场景中表现出卓越适应性。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

三维形貌重建 机器学习 跨尺度 山西大学
相关文章