自动驾驶传感器融合参数详解 自动驾驶系统依赖多种传感器(摄像头、激光雷达、毫米波雷达、超声波、IMU、GPS 等)协同工作,而传感器融合(Sensor Fusion)是将这些异构数据整合为统一环境感知的关键技术。本文系统性地介绍融合参数的配置、调优方法及最佳实践。
📋 目录 传感器融合概述 时空同步参数 融合算法核心参数 传感器权重与置信度 目标关联参数 融合层级与架构参数 参数调优实践 常见问题与解决方案 传感器融合概述 为什么需要传感器融合? 传感器 优势 劣势 摄像头 丰富的语义信息、车道线/交通标志识别 受光照影响大、无直接深度信息 激光雷达 (LiDAR) 高精度 3D 点云、不受光照影响 成本高、雨雪天气性能下降 毫米波雷达 测速准确、全天候工作、成本低 角分辨率低、无法识别静止物体 超声波 近距离精确、成本极低 探测距离短、易受干扰 IMU + GPS 高频率定位、惯性导航 GPS 在隧道/城市峡谷失效 💡 核心思想:通过融合互补的传感器数据,实现 1 + 1 > 2 的感知效果,提升系统的鲁棒性和冗余性。
时空同步参数 时空同步是融合的基础,确保不同传感器的数据对齐到同一时间点和坐标系。
时间同步参数 time_sync: # 硬件触发同步(推荐) hardware_trigger: enabled: true master_clock: "gps_pps" # 主时钟源:GPS PPS 信号 trigger_frequency_hz: 10 # 触发频率 # 软件时间戳对齐 software_sync: max_time_diff_ms: 50 # 最大允许时间差(毫秒) interpolation_method: "linear" # 插值方法:linear / spline / nearest timestamp_source: "sensor" # 时间戳来源:sensor / host / gps # 延迟补偿 latency_compensation: camera_delay_ms: 30 # 摄像头处理延迟 lidar_delay_ms: 10 # 激光雷达延迟 radar_delay_ms: 5 # 毫米波雷达延迟 空间标定参数(外参) spatial_calibration: # 激光雷达到车体坐标系的变换 lidar_to_vehicle: translation: [1.5, 0.0, 1.8] # [x, y, z] 单位:米 rotation_euler: [0.0, 0.0, 0.0] # [roll, pitch, yaw] 单位:度 rotation_quaternion: [1.0, 0.0, 0.0, 0.0] # [w, x, y, z] # 摄像头到激光雷达的变换 camera_to_lidar: translation: [0.05, -0.02, -0.1] rotation_euler: [-1.5, 0.5, -0.3] # 标定误差容忍度 calibration_tolerance: translation_error_m: 0.02 # 平移误差容忍(米) rotation_error_deg: 0.5 # 旋转误差容忍(度) 关键参数说明 参数 典型值 影响 max_time_diff_ms 30-100ms 过小导致数据丢弃,过大导致时序错乱 translation_error_m 0.01-0.05m 影响目标位置准确度 rotation_error_deg 0.1-1.0° 远距离目标误差放大 融合算法核心参数 卡尔曼滤波(KF)参数 适用于线性系统的状态估计:
...