此页面上的内容需要较新版本的 Adobe Flash Player。

获取 Adobe Flash Player

官方微信

当前位置:首页 > 新闻资讯 > 科研动态

光电子中心在大规模环境下基于视觉的多机器人全局定位方面取得新进展

发布时间:2025 / 03 / 24 发布来源:光电子技术研究中心

王凡

近日,中国科学院合肥物质科学研究院安光所光电子中心计算机视觉团队在大尺度场景下基于视觉的多机器人全局定位方面取得重要进展。相关研究成果发表在机器人领域国际Top期刊《IEEE Robotics and Automation Letters (IEEE RA-L)》上。


近年来,基于视觉的机器人大场景同时定位与地图构建(SLAM)因视觉传感器具有成本低、部署灵活、信息量丰富等优势,成为智能机器人领域的研究热点。在大规模环境中,通过众包映射协同完成多机器人定位与地图构建,能够显著提升整体建图效率。然而,实现多机器人系统中不同机器人间的全局定位(Multi-Robot Global Localization, MR-GL)依然面临诸多挑战。特别是在初始位姿未知、环境动态变化剧烈的情况下,机器人间视角差异造成的数据关联难度进一步加大,对算法的实时性与鲁棒性提出了更高要求。此外,如何在保障精度的同时快速完成多机器人间的全局位姿估计,是影响协同任务能否成功执行的关键因素之一。


针对上述难题,研究团队创新性地提出了一种融合语义与几何三重约束的图匹配多机器人全局定位方法——SGT-MGL。该方法首先提取场景中对象的语义与几何特征,并通过拓扑结构刻画其空间分布关系。为增强对象的区分性,研究人员基于语义信息与相对距离构建了三角形描述符。考虑到语义与几何信息的互补特性,设计了一种融合语义标签、空间夹角及相对距离信息的三维直方图描述符,有效提升了三角形描述符的稳定性与不变性。为进一步降低噪声干扰,研究团队提出了一种由全局几何结构引导的候选点选择策略,并结合局部与全局图匹配方法,实现了多机器人间的高精度六自由度(6-DoF)姿态估计。实验结果表明,该方法在提升全局定位精度方面具有显著优势。


该项工作的第一作者为王凡博士后,通讯作者为张文副研究员和刘勇研究员。本研究得到了国家自然科学基金、合肥物质院院长基金和国家重点研发计划的支持。


文章链接:https://ieeexplore.ieee.org/document/10924764


1 所提出的多机器人全局定位方法在KITTI08序列数据集上的应用

版权保护   |   隐私与安全   |   网站地图   |   常见问题   |   联系我们

中国科学院安徽光学精密机械研究所光电子技术研究中心 版权所有 皖ICP备05001008号

地址:中国 安徽 合肥蜀山湖路350号   邮编:230031