康谋技术 | 自动驾驶传感器标定技术:从单一到联合标定

发布者:Harmonious88最新更新时间:2024-09-11 来源: elecfans关键字:自动驾驶 手机看文章 扫描二维码
随时随地手机看文章

随着智驾从L0(预警功能),L2(独立的横纵向执行功能)到目前L2.9(城市NOA)的快速演变和装配,车辆对外界的感知需求也在快速增加。


为了让各类传感器更精确的感知,在传感器装车后,就需要对传感器进行标定以获取各个传感器的安装位置。具体来说,就是通过标定确定车身坐标系下传感器的位置。


一、传感器标定类型

在一辆具备L2+级别智驾车上,常会搭建摄像头,激光雷达毫米波雷达,GPS/IMU等传感器。从性质上讲,传感器标定包括内参标定和外参标定两种类型。


1、内参标定

内参标定主要关注传感器本身的参数,如相机的焦距、光心以及畸变参数等。通过建立传感器误差模型,获得传感器特性参数,进而消除传感器本身测量误差。关于相机标定可进一步看《深入探讨:自动驾驶中的相机标定技术》。

2、外参标定

外参标定关注传感器相对于车辆坐标系的位置。这通常需要借助先验信息,如工装信息或环境信息,来确定传感器的位姿。如果车辆坐标系定义为车辆上的某一点,标定过程将解决传感器在固定车辆坐标系下的位置确定问题。简单来说,传感器外参标定求解取决于车辆坐标系的定义。


传感器内参标定由于与安装位置无关,常在装车前进行标定。而传感器外参标定涉及到车辆坐标系的确定,主要包括传感器与车身的标定(单一标定)和多传感器标定(联合标定)。其中多传感器标定是通过传感器的测量信息来求解不同传感器之间的位姿变换。


下面就以激光雷达为例,进一步分析传感器与车身标定(单一标定)和多传感器标定(联合标定)。


二、单一标定和联合标定

1、单一标定

在激光雷达与车身标定过程中,首先要安装激光雷达,并确定车辆坐标系,随后通过测量工具记录其相对于车辆坐标系的位置和方向。将多个标定板置于激光雷达可扫描到的区域,采集点云数据,并通过标定算法计算激光雷达坐标系与车辆坐标系之间的转换关系。最终解算出激光雷达与车身的外参。

2、联合标定

联合标定是指对多个传感器进行综合标定,确保它们之间的数据能够准确融合。比如激光雷达与其他传感器(如摄像头、毫米波雷达、GPS/IMU等)的数据进行综合标定,以确保所有传感器的数据能够在统一的坐标系中准确对齐。这一过程对于实现高精度的环境感知和车辆定位至关重要。


①LiDAR与Camera标定

通过确定激光雷达(LiDAR)与相机之间的相对位置和方向,使得两者捕获的数据能够在同一坐标系中准确对齐。这种标定对于将激光雷达的空间点云数据与相机的图像数据融合至关重要。如下图所示,使用手动调整旋转和位移的工具,通过实时可见的结果进行调整,直至场景中物体在两种传感器的数据中对齐。


②LiDAR与LiDAR标定(环视标定)

通过多个激光雷达之间的相对位置和方向的标定。这种标定对于多激光雷达系统,特别是在需要360度环境感知的自动驾驶车辆中非常重要。


③LiDAR与Radar标定

通过激光雷达与毫米波雷达之间的相对位置和方向进行标定。这种标定有助于整合两种传感器的优势,提高自动驾驶车辆的环境感知能力。

总的来说,标定是自动驾驶数据采集中必要的一环,它确保了以多传感器为核心的采集系统能够提供精确、可靠的环境感知信息。通过精确的联合标定,自动驾驶车辆能够更好地理解其周围环境,做出快速准确的决策,从而提高自动驾驶的安全性和可靠性。


关键字:自动驾驶 引用地址:康谋技术 | 自动驾驶传感器标定技术:从单一到联合标定

上一篇:新能源汽车几种常见的电池热管理技术介绍
下一篇:30元如何实现车辆防后撞

推荐阅读最新更新时间:2026-03-20 05:36

基于柔性测试技术的位置传感器标定与检测系统平台的设计
本系统是一套基于柔性测试技术理念开发的平台式位置传感器标定与检测系统,能够完成对多种位置传感器进行标定与检测。经过组装的位置传感器输出的信号是不准确的,在使用前必须经过标定、校准和检测,只有标定后通过校准和测试的传感器才能在实际中使用。标定和测试过程都需要在高精度的磁场变换环境中进行,系统采用直线与旋转两个工作台实现对直线型、旋转型位置传感器的标定和检测。同时本系统集成了完善的温度控制功能,可以对传感器的测试环境进行恒温控制,并对需要的传感器进行必要的恒温环境下校准与检测,对传感器的输出信号进行温度补偿,以提高对温度影响敏感类传感器输出的精度。本系统可以建立0℃~125℃范围内任意温度点的恒温环境控制,并且可以达到较高的精度。
[测试测量]
基于柔性测试<font color='red'>技术</font>的位置<font color='red'>传感器</font><font color='red'>标定</font>与检测系统平台的设计
力控专栏 | 坤维高精度微小量程六维联合加载标定检测系统投入使用
坤维科技 为微小量程六维力传感器研发的 六维联合加载标定检测系统KC650A 于2023年1月9日正式投入使用。 KC650A 主要用于 0~30N 测量范围的六维力传感器标定和检测 ,主要服务于芯片制造、精密装配、3C检测、手术机器人、诊疗设备及科学实验等对六维力传感器有 小量程、高精度 需求的行业。 KC650A 可按任意比例对被标定或检测的传感器同时精准施加正交三方向力和三方向力矩。因此可以根据不同传感器器结构和特性优化标定样本空间和检测样本空间,利用 KC650A 充分激发传感器的非线性力学行为特征,从而获得最优的解耦算法,最终达到 高效、高精准度 的测量效果。
[机器人]
马斯克亲测无安全员Robotaxi自动驾驶网约车,直言体验“完美”
12 月 26 日消息,科技媒体 ilovetesla 昨日(12 月 25 日)发布博文,报道称特斯拉首席执行官埃隆・马斯克(Elon Musk)与 AI 总监阿肖克・埃卢斯瓦米(Ashok Elluswamy)近日在奥斯汀实测了无安全员的 Robotaxi 自动驾驶网约车服务。 此次测试的关键突破在于“主驾无人”且“无安全员监控”。马斯克坐在副驾驶位完成了全程,他用“完美驾驶(Perfect driving)”来形容车辆的表现。 为佐证马斯克的体验,特斯拉 AI 总监阿肖克・埃卢斯瓦米同步公开了一段第一视角视频,视频拍摄于 Robotaxi 后排,完整记录了车辆在奥斯汀真实交通环境中的运行状态。IT之家附上相关视频如下:
[汽车电子]
如何降低自动驾驶VLA大模型推理时延?
随着高阶自动驾驶迈向“端到端”阶段,VLA(Vision-Language-Action,简称VLA)正在成为自动驾驶的最佳模型方案。VLA大模型通过统一建模视觉感知、语义理解与逻辑决策,使自动驾驶能够像人一样具备语义理解与推理能力,已成为目前业界突破自动驾驶“长尾场景”挑战的关键。然而,VLA大模型参数规模增长至数十亿,多模态数据在异构算力间流转处理,模型延时普遍超100ms,难达实时需求,亟需软硬件系统优化解决车载端异构计算协同问题。 浪潮信息研究团队开源面向VLA大模型的自动驾驶计算加速框架AutoDRRT 3.0。该框架基于浪潮信息自动驾驶车载计算平台EIS400,针对复杂语义推理及极端长尾场景,通过在计算效率、通
[汽车电子]
如何降低<font color='red'>自动驾驶</font>VLA大模型推理时延?
首批国家级L3准入落地,自动驾驶量产踏出关键一步
12月15日,工信部公布我国首批L3级有条件 自动驾驶 车型准入许可,重庆长安汽车股份有限公司与北汽蓝谷麦格纳汽车有限公司率先获准。本次获批的两款车型分别为长安旗下的深蓝SL03和极狐阿尔法S(L3版),深蓝SL03可在高速公路和城市快速路上,于交通拥堵环境下实现最高50km/h的自动驾驶;极狐阿尔法S(L3版)则将这一速度上限提升至80km/h。目前,两款车型的自动驾驶功能均设有严格限制,分别只能在重庆和北京的特定路段开启。 从应用上看,首批L3级准入试点以审慎的方式稳步推进。 首先,ODD覆盖范围非常有限。在重庆,获准车辆只能在市内环快速路、新内环快速路(高滩岩立交—赖家桥立交)及渝都大道(人和立交—机场立交)等路段,
[汽车电子]
自动驾驶在颠簸路面如何确保感知准确性?
当自动驾驶汽车在城市道路、乡间小路或石子路面行驶时,感知系统的稳定性会面临前所未有的考验。这种考验不仅源于环境光照的变化或障碍物类型的增多,更来自于车辆与路面交互时产生的物理震动和姿态剧烈波动。 颠簸路面产生的震动会直接作用于精密安装的传感器硬件,导致传感器采集到的原始数据出现物理层面的扭曲、模糊甚至信号中断。 如果感知系统无法有效应对这些动态干扰,车辆可能会出现如将路面的起伏识别为障碍物,或者在剧烈抖动中丢失对前方行人的稳定跟踪等误判,那自动驾驶在颠簸路面如何确保感知的准确性? 传感器安装架构与机械减震技术 在提升算法之前,首先可以做的是从物理层面尽可能降低震动对传感器的直接影响。自动驾驶汽车通常在车顶、侧翼
[汽车电子]
<font color='red'>自动驾驶</font>在颠簸路面如何确保感知准确性?
为什么可扩展高性能 SoC 是自动驾驶汽车的未来
在中央计算平台的帮助下,汽车行业的自动驾驶水平越来越高。TDA5 系列等 SoC 通过集成式 C7™ NPU 和芯片就绪型设计提供安全、高效的 AI 性能。这些 SoC 使汽车制造商能够更轻松地实现 ADAS 功能,为从基础车型到豪华汽车在内的所有类型的车辆提供高级功能。 图 1 采用软件定义车辆分析环境数据的自动驾驶 ADAS 功能的可视化 简介 高级驾驶辅助系统 (ADAS) 和自动驾驶被誉为“前沿”有多长时间了?在过去十年左右,展会上的汽车制造商向消费者展示了道路上充满智能自动驾驶车辆的未来愿景。 我们最终更加接近这一愿景。您可能驾驶过这样一辆车或者甚
[汽车电子]
VLA和世界模型在自动驾驶中可以融合吗?
随着VLA(视觉-语言-动作模型)与世界模型在自动驾驶领域的关注度日益提升,这两项技术已成为众多主机厂研发布局的重点方向。前者强调将感知、语义推理与动作生成整合到同一个大模型中,以实现端到端的决策输出;后者则致力于在系统内部构建对物理环境的动态模拟与未来状态推演,以提升对复杂场景的预见与应对能力。那么,这两项技术是否可以深度融合,从而让自动驾驶系统实现更智能、更可靠的驾驶行为呢? 什么是VLA和世界模型 在自动驾驶中,VLA(Vision-Language-Action)是一种端到端的方法,其核心在于将“感知”“理解”与“执行”整合进同一个大模型中统一处理。VLA系统通过摄像头等传感器获取路面视觉信息,并将其转化为
[汽车电子]
VLA和世界模型在<font color='red'>自动驾驶</font>中可以融合吗?
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved