自动驾驶传感器前处理介绍

发布者:WhisperingSong最新更新时间:2024-03-26 来源: elecfans关键字:自动驾驶传感器 手机看文章 扫描二维码
随时随地手机看文章

摄像头前处理流程

•自动驾驶HDR:为适应自动驾驶所处的高动态范围环境,先进的图像传感器采用同时多曝光和/或拆分像素设计。组合不同曝光可将固有动态范围(80-100dB)扩展至目标动态范围(120-140dB或更高)。

•摄像头或摄像模块:由图像传感器、颜色滤波阵列、镜头、外壳及可选前处理组成的传感器系统。

•色彩滤波阵列(CFA):应用于图像传感器的光学元件,形成特定颜色像素模式,通常以2x2单个颜色指定,如红、绿、蓝、黄、青等。常见例子有RGGB(Bayer)、RCCC、RCCB、RYYCy。

计算机视觉(CV)前处理:用于增强传统CV算法效果的具体处理,如光流、Harris角点检测等。

•图像传感器:收集光线并输出数字像素样本的芯片。可采集不同波长光线,数字输出格式多种多样。常见波长包括可见光、IR、近红外(NIR)、短波IR(SWIR)等。

•人类视觉前处理:用于使图像对人类更易看的具体处理。

•镜头:各种镜头安装在图像传感器阵列和CFA上。传统自动驾驶应用使用固定焦距/固定镜头。

•机器学习(ML)前处理:用于增强机器学习(ML)和深度神经网络(DNN)算法效果的具体处理。这取决于所用算法,前处理范围从无到完整的人类视觉流程不等。详见成像工作组。

•传感器上的前处理:用于自动驾驶的先进图像传感器具有许多增强和压缩原始样本的功能。这些传感器通常具有数字增益调整、黑电平调整、多曝光片段线性组合等。输出流量仍很大(3~6Gbps),但远低于原始样本流。

•原始像素样本:来自芯片上ADC的未处理样本。这些样本仍受镜头、CFA、模拟增益设定、曝光设定等的光学和模拟影响调整。像素通常以每个曝光10~16位采样。一个800万像素的图像传感器,使用4次曝光,以每秒30帧的速度,将产生高达15.36 Gbps的数据率。

雷达前处理流程

•汽车雷达:由天线阵列、一个或多个微波集成电路(MMIC)和可选前处理组成。大多数汽车雷达采用频率调制连续波(FMCW)操作,但也有几种替代技术正在开发。雷达操作基础有许多不错的资料来源。

•雷达帧:通过一个或多个发射机发出的一系列传输脉冲序列,以实现场景视野、分辨率/分离度/识别度和期望维度(距离、径向速度、方位和仰角)的精度设计目标。

•原始雷达样本:来自连接特定接收机(Rx)的ADC的样本。这些ADC通常为10~16位,工作频率约50MHz(MSps),生成原始流量高达每Rx通道约800Mbps。高端汽车雷达通常有4~16个接收通道(3.2~12.8Gbps),先进研究使用几十个接收机。

•雷达数据立方体:通过处理原始雷达样本生成的1~4维立方体。通常采用FFT获得距离和多普勒维度。可用于计算方位和/或仰角的数字波束成形,但也有许多更先进的算法以更好的结果换取额外处理。

•雷达数据立方体压缩:由于数据立方体中大多数位置没有返回,存在几种简单(通常专有)算法压缩数据立方体以减少传输带宽。

•雷达检测/点云:通常对数据立方体进行阈值处理/CFAR和将相邻返回合并为单点/检测。这大大降低了数据带宽,但也损失了数据立方体中的目标“形状”。

•雷达对象:基于检测结果,传统雷达处理会将附近点集群化并返回目标对象“块”。

•雷达感知:大类算法,可将雷达数据处理为汽车、人员等分类对象,还有更多基础设施对象。这些算法通常对数据立方体、点云或对象进行操作,但也有基于原始数据的研究。

•雷达输出数据格式:点云,点具有位置、距离、强度、运动信息等属性。

激光雷达前处理流程

•汽车激光雷达传感器:激光雷达系统可以分为几类基本类别。波长、脉冲/调制技术、接收器技术和扫描技术等基本变量会带来许多权衡取舍。

•Flash与扫描激光雷达:闪光激光雷达本质上是飞行时间(TOF)相机。使用激光闪光和高速2D接收器阵列,可以捕捉到许多“曝光区间”或“距离分箱”。2D阵列给出x/y位置,对距离分箱的处理可以得到反射或返回的峰值z位置。与Flash激光雷达不同,扫描激光雷达一次只在一个x/y方向上“观察”。发出脉冲后等待一定时间获取返回。这使设计者可以一次关注发出能量(在眼安全限制内)在一个位置上。然后扫描机制移动到下一个“像素”位置。

•脉冲与调制激光雷达:脉冲激光雷达需要更高功率来克服阳光的背景噪声,但系统相对简单。调制激光雷达噪声水平更低,因为干扰源要么没有调制(阳光或其他脉冲激光雷达),要么与发射调制的时间/频率组合极不可能重合(其他调制激光雷达)。由于噪声水平更低,在相似输出功率下,调制激光雷达的范围远超脉冲激光雷达。更复杂的发射器和接收器的代价是主要缺点。根据调制方案(如FMCW),它们也有更长的“驻留”时间,因为接收器需要等待完整调制返回,而不是快速脉冲。这增加的驻留时间导致与其他技术相比点数/秒更低。

•原始激光雷达样本:激光雷达样本测量返回强度对时间的关系。它们通常每个接收器为1~6 Gbps,不太可能在当前汽车网络技术中传输。接收强度取决于发射功率、与物体距离和物体反射率。

•激光雷达返回波形:对原始样本进行阈值处理形成每个从远处物体反射的波形,也称为返回。

•激光雷达返回:使用各种算法找到返回波形的强度峰值/时间。对于任 one发射脉冲,由于波束发散和目标的半透明性,可以有许多不同的返回。这些返回通常包括视场中的x、y位置,返回的距离和强度,以及用于全局同步的时间戳。

•激光雷达点云:点云是返回列表,可以对视场中的每个x/y位置具有多个返回。大多数汽车激光雷达输出每个x/y位置1~3个返回的点云。研究界有强烈观点认为应输出返回波形,因为它们包含目标对象的更多信息。与雷达处理类似,峰值检测可有效压缩所需的数据带宽,但明显损失目标对象信息。


关键字:自动驾驶传感器 引用地址:自动驾驶传感器前处理介绍

上一篇:自动驾驶系统ISP接口/连接
下一篇:在SoC中实现的计算单元

推荐阅读最新更新时间:2026-03-05 03:44

高通宣布2023年推出下一代Arm处理器:由苹果员工负责开发
高通正寻求认真加强其 PC 处理器,昨晚宣布了下一代基于 Arm 的处理器计划,“旨在为 Windows PC 设定性能基准”,将能够与苹果的 M 系列处理器并驾齐驱。    高通首席技术官 James Thompson 博士在公司 2021 年投资者大会上宣布了新处理器的计划,目标是在 2023 年推出,推出前九个月内向硬件客户提供样品。 据 The Verge 报道,新处理器将由 Nuvia 团队设计,高通今年早些时候以 14 亿美元的巨额收购收购了该团队。值得注意的是,Nuvia 是由三位前苹果员工于 2019 年创立的,他们之前为苹果的 A 系列处理器工作过。    高通也做出了重大承诺:除了与苹果一流的 M 系列处
[半导体设计/制造]
高通宣布2023年推出下一代Arm<font color='red'>处理</font>器:由苹果<font color='red'>前</font>员工负责开发
自动驾驶系统的传感器标定方法详解
这个工作可分成两部分:内参标定和外参标定,内参是决定传感器内部的映射关系,比如摄像头的焦距,偏心和像素横纵比(+畸变系数),而外参是决定传感器和外部某个坐标系的转换关系,比如姿态参数(旋转和平移6自由度)。 摄像头的标定曾经是计算机视觉中3-D重建的前提,张正友老师著名的的Zhang氏标定法,利用Absolute Conic不变性得到的平面标定算法简化了控制场。 这里重点是,讨论不同传感器之间的外参标定,特别是激光雷达和摄像头之间的标定。 另外在自动驾驶研发中,GPS/IMU和摄像头或者激光雷达的标定,雷达和摄像头之间的标定也是常见的。不同传感器之间标定最大的问题是如何衡量最佳,因为获取的数据类型不一样: 摄像头是RG
[汽车电子]
<font color='red'>自动驾驶</font>系统的<font color='red'>传感器</font>标定方法详解
速腾聚创创始人力挺激光雷达:多传感器融合成自动驾驶新趋势
10月20日,中国激光雷达制造商速腾聚创(RoboSense)创始人邱纯鑫在“未来中国全球论坛”期间接受采访时表示,多传感器融合方案相较于纯视觉系统,是更优且更安全的 自动驾驶 车辆技术路径。邱纯鑫强调,纯视觉系统在极端场景下无法有效应对,而要实现L3或L4级别的自动驾驶能力,必须引入包括激光雷达在内的其他传感器进行协同感知。 速腾聚创作为全球乘用车激光雷达系统市场份额最大的公司,其创始人邱纯鑫指出,激光雷达的成本已从每辆车约7万美元降至几百美元左右,性能也在持续提升。尽管特斯拉CEO埃隆· 马斯克 长期以来对激光雷达技术持批评态度,但邱纯鑫认为,激光雷达在汽车领域的应用价值正逐渐被行业认可。福特公司CEO吉姆·法利和理想汽车CE
[汽车电子]
速腾聚创创始人力挺激光雷达:多<font color='red'>传感器</font>融合成<font color='red'>自动驾驶</font>新趋势
汽车自动驾驶传感器融合技术详解
传感器融合是指将来自多个不同类型传感器(如摄像头、激光雷达、毫米波雷达、超声波雷达、全球定位系统、惯性传感器等)的数据进行整合,通过智能算法进行综合分析和处理,以获得更加全面、准确、可靠的环境信息。 这一技术不仅能够弥补单一传感器在感知能力上的不足,还能提升自动驾驶系统的鲁棒性和安全性。 01 传感器融合技术 作为自动驾驶系统的“感知神经网络”,传感器融合需解决多模态数据时空对齐、特征互补与冗余校验问题,核心技术架构分为三级: 数据级融合‌ 通过硬件层同步机制(如PTP协议)实现激光雷达、摄像头、毫米波雷达等传感器的微秒级时间同步。 坐标
[汽车电子]
物理级传感器仿真:破解自动驾驶长尾场景验证难题
自动驾驶研发面临 长尾效应 的终极挑战:海量边缘场景需要近乎无限的测试里程。仿真测试虽已成为行业共识,但其真实度仍存根本性质疑——当多数平台仍停留在视觉逼真层面时,感知算法的低阶数据处理和鲁棒性测试已触及验证天花板。 其实,真正的物理级仿真必须从数据源头出发:从光子穿透镜头到电信号转换,从激光能量分布到多回波散射,每一个物理环节都会直接影响算法在现实世界中的表现。 基于此,本文将深入解析摄像头与激光雷达的物理建模机制,并解读2025新兴标准ASAM OpenMATERIAL 3D,从而探讨如何为高可信度仿真提供关键基础的问题! 01 镜头模型的光学物理建模 传统的摄像头仿真,
[汽车电子]
新型“可见光+近红外”视觉融合传感器,助力复杂场景的自动驾驶
随着自动驾驶技术的迅速发展,纯视觉解决方案因其成本效益、结构简洁以及类似人类视觉的识别和理解能力而受到广泛关注。然而,现有的视觉传感器在特定光谱操作范围和处理混合光/电信号的复杂性方面存在限制。在自动驾驶场景中,车辆需要应对从明亮的白天到昏暗的夜晚的各种光照环境,以及来自道路反射、车辆尾灯和其他光源的各种波长的干扰,这些因素都可能削弱自动驾驶系统的精确性和可靠性。为了克服这些挑战,视觉传感器必须具备从可见光到近红外(NIR)光谱的正负光响应能力。 据麦姆斯咨询报道,近日,湖南大学联合香港理工大学的研究团队采用视觉融合方法,整合了Al₂O₃/二维Ruddlesden-Popper钙钛矿(2D PVK)异质结构介质和MoS₂/BP
[汽车电子]
传感器融合:如何让自动驾驶 “看” 得更清楚?
在科技飞速发展的当下,自动驾驶技术正逐步从科幻走进现实,为人们的出行带来全新变革。而在自动驾驶的复杂技术体系中,传感器融合技术宛如一颗璀璨的明珠,发挥着至关重要的作用,致力于解决自动驾驶车辆如何精准 “看清” 周围环境这一关键难题。 自动驾驶汽车要在复杂多变的道路环境中安全、高效地行驶,宛如一位经验丰富的驾驶员,需要时刻精准感知周围的一切。这其中涵盖其他车辆的行驶速度、方向及距离,行人的位置与动向,交通标志和信号灯的指示,还有道路的坡度、曲率以及是否存在障碍物等丰富信息。而传感器,便是赋予自动驾驶汽车这种 “感知超能力” 的核心部件,不同类型的传感器犹如汽车的各类 “感官”,各自发挥着独特作用。 摄像头,恰似自动驾驶汽车的
[嵌入式]
自动驾驶传感器雷达和激光雷达是竞争 or 协作?
在科技飞速发展的当下,自动驾驶技术正以前所未有的速度改变着人们的出行方式,为未来交通勾勒出全新的蓝图。而在这一技术体系中,传感器雷达和激光雷达作为核心感知部件,犹如自动驾驶汽车的 “眼睛”,对其安全、高效运行起着决定性作用。但二者究竟是处于竞争关系,还是走向协作之路,成为了行业内广泛探讨的话题。 传感器雷达:全天候的可靠伙伴 传感器雷达,尤其是毫米波雷达,凭借其独特的技术优势,在自动驾驶领域占据着重要地位。它工作于毫米波频段,通常为 24GHz 至 77GHz。通过发射高频电磁波并接收目标反射波,能够精确计算目标物体的距离、速度和方位。在恶劣天气条件下,如大雾弥漫、暴雨倾盆或雪花纷飞,摄像头的成像质量会因光线受阻而大打折扣,激
[嵌入式]
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved