留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于融合改进算法的建筑机器人地图构建

薛慧 张振山 张艳伟 朱姿娜 崔国华 卢声耀

薛慧, 张振山, 张艳伟, 朱姿娜, 崔国华, 卢声耀. 基于融合改进算法的建筑机器人地图构建[J]. 上海工程技术大学学报, 2025, 39(4): 451-457. doi: 10.12299/jsues.24-0169
引用本文: 薛慧, 张振山, 张艳伟, 朱姿娜, 崔国华, 卢声耀. 基于融合改进算法的建筑机器人地图构建[J]. 上海工程技术大学学报, 2025, 39(4): 451-457. doi: 10.12299/jsues.24-0169
XUE Hui, ZHANG Zhenshan, ZHANG Yanwei, ZHU Zina, CUI Guohua, LU Shengyao. Map construction for construction robot based on integrated improved algorithm[J]. Journal of Shanghai University of Engineering Science, 2025, 39(4): 451-457. doi: 10.12299/jsues.24-0169
Citation: XUE Hui, ZHANG Zhenshan, ZHANG Yanwei, ZHU Zina, CUI Guohua, LU Shengyao. Map construction for construction robot based on integrated improved algorithm[J]. Journal of Shanghai University of Engineering Science, 2025, 39(4): 451-457. doi: 10.12299/jsues.24-0169

基于融合改进算法的建筑机器人地图构建

doi: 10.12299/jsues.24-0169
基金项目: 浙江省科技厅尖兵领雁科技计划项目(2023C01154)
详细信息
    作者简介:

    薛慧:薛 慧(2000 − ),女,硕士生,研究方向为激光技术。E-mail:19921313069@163.com

    通讯作者:

    张振山(1979 − ),男,讲师,博士,研究方向为SLAM技术。E-mail:zhangzhenshan0803@163.com

  • 中图分类号: TP391.4

Map construction for construction robot based on integrated improved algorithm

  • 摘要: 建筑环境具有非结构化、大工作空间、施工工艺流程受现场环境影响明显等特点。针对建筑机器人定位和地图构建时,位姿估计不准确、地图显示不完整、高度动态场景下残影较多等问题,融合双激光雷达、惯性测量单元(IMU)和轮式里程计等多传感器,以Cartographer算法为基础框架,采用扩展卡尔曼滤波算法对多传感器融合优化,获得更准确的位姿估计;从原始激光点云数据中过滤剔除动态障碍物点云,提高地图构建的质量。实验结果表明,提出的数据融合Cartographer改进算法提高了地图质量和定位精度,可以满足建筑作业环境下地图构建需求。
  • 图  1  非结构化复杂建筑环境

    Figure  1.  Unstructured complex built environment

    图  2  建筑打孔机器人多传感器融合感知系统

    Figure  2.  Multi-sensor fusion perception system for construction drilling robots

    图  3  基于多传感器数据融合与Cartographer改进算法的建图流程

    Figure  3.  Mapping process based on multi-sensor data fusion and improved Cartographer algorithm

    图  4  基于激光雷达点云的障碍提取过程示意图

    Figure  4.  Schematic diagram of obstacle extraction process based on LiDAR point cloud

    图  5  动态障碍物点云滤除流程图

    Figure  5.  Dynamic obstacle point cloud filtering flowchart

    图  6  实验室场景

    Figure  6.  Laboratory scene

    图  7  实验室环境的障碍物提取图

    Figure  7.  Diagram of obstacle extraction in laboratory environment

    图  8  改进算法剔除后的障碍物点云图

    Figure  8.  Point cloud map after obstacles removed by improved algorithm

    图  9  实验室2D栅格地图

    Figure  9.  2D raster map of laboratory

    图  10  使用动作捕捉仪测量定位数据

    Figure  10.  Measure positioning data with motion capture instruments

    图  11  不同算法相对误差折线图

    Figure  11.  Line graph of relative errors of different algorithms

    表  1  机器人硬件及主要传感器的关键参数

    Table  1.   Robot design index and key parameters

    参数名称 参数大小
    外形尺寸 1600 mm×1000 mm×2000 mm
    底盘质量 400 kg
    举升平台高度 ≤1.5 m
    机械臂工作空间 1300 mm
    IMU测量精度 0.5 (°)/s
    激光雷达测距精度 ± 25 mm
    下载: 导出CSV

    表  2  不同算法误差分析结果

    Table  2.   Error analysis results of different algorithms

    精度评估 轮式里程计 原始算法 改进算法
    最大误差/m 0.984 0.153 0.090
    最小误差/m 0.036 0.008 0.012
    平均绝对误差/m 0.629 0.070 0.024
    均方误差/m2 0.043 0.007 0.002
    均方根误差/m 0.738 0.084 0.029
    下载: 导出CSV
  • [1] DAVILA DELGADO J M, OYEDELE L, AJAYI A, et al. Robotics and automated systems in construction: understand ingindustry-specific challenges for adoption[J] . Journal of Building Engineering, 2019, 26: 100868. doi: 10.1016/j.jobe.2019.100868
    [2] WANG X, WANG S Q, MENASSA C C, et al. Automatic high-level motion sequencing methods for enabling multi-tasking construction robots[J] . Automation in Construction, 2023, 155: 105071. doi: 10.1016/j.autcon.2023.105071
    [3] CAI J N, DU A, LIANG X Y, et al. Prediction-based path planning for safe and efficient human–robot collaboration in construction via deep reinforcement learning[J] . Journal of Computing in Civil Engineering, 2023, 37(1): 04022046. doi: 10.1061/(ASCE)CP.1943-5487.0001056
    [4] FENG C, XIAO Y, WILLETTE A, et al. Vision guided autonomous robotic assembly and as-built scanning on unstructured construction sites[J] . Automation in Construction, 2015, 59: 128 − 138. doi: 10.1016/j.autcon.2015.06.002
    [5] LUNDEEN K M, KAMAT V R, MENASSA C C, et al. Scene understanding for adaptive manipulation in robotized construction work[J] . Automation in Construction, 2017, 82: 16 − 30. doi: 10.1016/j.autcon.2017.06.022
    [6] PAN M, LINNER T, PAN W, et al. Influencing factors of the future utilisation of construction robots for buildings: a Hong Kong perspective[J] . Journal of Building Engineering, 2020, 30: 101220. doi: 10.1016/j.jobe.2020.101220
    [7] LIANG C J, KAMAT V R, MENASSA C C. Teaching robots to perform quasi-repetitive construction tasks through human demonstration[J] . Automation in Construction, 2020, 120: 103370. doi: 10.1016/j.autcon.2020.103370
    [8] YAROVOI A, CHO Y K. Review of simultaneous localization and mapping (SLAM) for construction robotics applications[J] . Automation in Construction, 2024, 162: 105344. doi: 10.1016/j.autcon.2024.105344
    [9] 刘铭哲, 徐光辉, 唐堂, 等. 激光雷达SLAM算法综述[J] . 计算机工程与应用, 2024, 60(1): 1 − 14.
    [10] SHAN T X, ENGLOT B, MEYERS D, et al. LIO-SAM: tightly-coupled lidar inertial odometry via smoothing and mapping[C] //2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Las Vegas: IEEE, 2020: 5135 − 5142.
    [11] 帅子沛. 室内建筑抹灰机器人智能导航研究[D] . 成都: 电子科技大学, 2022: 18 − 30.
    [12] 周乐天. 建筑机器人移动定位技术研究[D] . 成都: 电子科技大学, 2019: 20 − 28.
    [13] 沈欣. 基于改进Cartographer的激光SLAM算法研究[D] . 武汉: 武汉科技大学, 2021: 16 − 28.
    [14] 徐淑萍, 杨定哲, 熊小墩. 多传感器融合的室内机器人SLAM[J] . 西安工业大学学报, 2024, 44(1): 93 − 103.
    [15] LI L, SCHULZE L, KALAVADIA K. Promising SLAM methods for automated guided vehicles and autonomous mobile robots[J] . Procedia Computer Science, 2024, 232: 2867 − 2874. doi: 10.1016/j.procs.2024.02.103
    [16] 徐淑萍, 杨定哲, 房嘉翔, 等. 一种改进Cartographer算法的建图方法研究[J] . 激光杂志, 2024, 45(10): 86 − 93.
    [17] ALTINPINAR O V, SEZER V. A novel indoor localization algorithm based on a modified EKF using virtual dynamic point landmarks for 2D grid maps[J] . Robotics and Autonomous Systems, 2023, 170: 104546. doi: 10.1016/j.robot.2023.104546
    [18] KUTI J, PIRICZ T, GALAMBOS P. Method for direction and orientation tracking using IMU sensor[J] . IFAC-PapersOnLine, 2023, 56(2): 10774 − 10780. doi: 10.1016/j.ifacol.2023.10.744
    [19] PRZYBYŁA M. Detection and tracking of 2D geometric obstacles from LRF data[C] //Proceedings of 2017 11th International Workshop on Robot Motion and Control (RoMoCo). Wasowo Palace: IEEE, 2017: 135 − 141.
  • 加载中
图(11) / 表(2)
计量
  • 文章访问数:  13
  • HTML全文浏览量:  5
  • PDF下载量:  2
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-06-12
  • 网络出版日期:  2026-02-02
  • 刊出日期:  2025-12-01

目录

    /

    返回文章
    返回