日前,由博士生刘阳等撰写的论文“SDS-SLAM: VSLAM Fusing Static and Dynamic Semantic Information for Driving Scenarios”在国际机器人和自动化领域重要期刊IEEE Transactions on Automation Science and Engineering(TASE)上发表。该论文由湖北省科技重大专项(2022AAA009)项目支持,DOI:https://doi.org/10.1109/TASE.2025.3573739.
视觉语义SLAM通过融合几何测量与语义感知,使其在自动驾驶和机器人领域具有广泛应用前景。语义辅助定位与动态目标感知是视觉语义SLAM中两大核心任务,然而现有先进方法往往仅孤立处理其中一项任务。针对单一框架功能局限性与信息利用不充分的问题,该论文提出统一视觉语义SLAM框架SDS-SLAM,通过紧密耦合静态与动态语义信息,协同处理驾驶场景下相机与观测目标的运动估计。采用驾驶感知多任务网络提取可行驶区域、车道线、车辆等多层次语义信息,基于所获信息提出语义局部地面流形(SLGMs)表征几何结构与语义特征,实现轻量化语义地图在线构建。进而融合基于SLGM的车道对齐约束、平面运动约束等联合优化,促进相机与目标位姿估计。在公开KITTI数据集与自采真实场景数据上的实验表明,论文方法能有效感知驾驶场景动态与静态语义要素,在相机与目标位姿估计精度方面达到较高水平。
这项研究旨在统一视觉SLAM框架中利用语义信息辅助本体定位并增强动态目标运动感知,主要服务于自动驾驶车辆等地面智能机器人的决策与规划。现有方法通常孤立处理语义辅助定位或动态目标跟踪问题,既无法充分利用环境的语义丰富性,又忽视了语义信息间的相互约束。论文在团队前期全景驾驶感知YOLOPX工作的基础上,通过引入耦合道路平面与车道线的语义局部地面流形(SLGMs)进行交通场景表征,结合车道对齐、共面性和平面支撑等附加几何约束的联合优化,显著提升了相机位姿估计精度。此外,SLGM提供的平面运动约束有效降低了目标位姿估计中的累积漂移,使得长期目标跟踪与运动感知更加稳健精确。
IEEE TASE为2024版自动化学会推荐A类期刊,最新影响因子5.9,由IEEE国际机器人与自动化协会(IEEE RAS)主办,是国际智能控制与自动化领域的顶级期刊。
引用信息:Liu Yang, Guo Chi*, Zhan Jiao, Wu Xiaoyu. SDS-SLAM: VSLAM Fusing Static and Dynamic Semantic Information for Driving Scenarios[J]. IEEE Transactions on Automation Science and Engineering, 2025, doi: 10.1109/TASE.2025.3573739.
Jiao Zhan, Yarong Luo , Chi Guo*,et.al. YOLOPX: Anchor-free multi-task learning network for panoptic driving perception[J]. Pattern Recognition, 148(4),2024, https://doi.org/10.1016/j.patcog.2023.110152 (代码开源:https://github.com/jiaoZ7688/YOLOPX)
