自动驾驶测试场景库的构建及评价方法之场景生成方法研究

发布者:平和心态最新更新时间:2025-02-06 来源: elecfans关键字:自动驾驶 手机看文章 扫描二维码
随时随地手机看文章

自动驾驶测试场景库的构建及评价方法(二)


场景生成方法研究

一、研究背景


智能网联汽车面临多维度安全挑战,其中预期功能安全是重要组成部分。在当前阶段,智能网联汽车产业正处于前所未有的高速发展阶段。众多车企与科研机构投入巨资,致力于技术创新和产品升级。尽管如此,伴随技术进步的同时,安全问题频频出现,不同等级的智能网联汽车产品,在道路测试、示范应用以及正式上路阶段仍然发生了多起事故,事故发生的原因多数是由于自动驾驶系统相关的零部件或者子系统的预期功能没有实现。

场景对于自动驾驶汽车的开发和测试至关重要。由于自动驾驶系统的复杂性,传统的基于规则和基于里程的测试方法已经不适用,需要向基于场景的测试方法转变。据美国兰德公司研究,从统计学角度出发,自动驾驶汽车需要在真实或者虚拟环境中至少进行110亿英里的里程测试[1],才能证明自动驾驶系统比人类驾驶员更可靠。测试场景来源广泛,预期功能安全场景是其中重要的一类。通过预期功能安全分析获取尽可能多的相关场景,这些场景一方面可作为输入指导系统开发,另一方面也是测试验证的重要依据 。参考国内外场景架构设计方法,结合赛目已有的工程实践经验,提出一种基于关键要素分析的场景搭建框架,主要包含四类关键特征,基于上述方法生成的场景既能够体现触发条件,同时也能够更好的通过模拟仿真软件搭建,便于高效地进行自动驾驶系统的测试和验证。

二、研究内容


基于标准ISO 21448和GB/T 43267-2023中第4章预期功能安全活动概述和组织,以及第6章的危害识别和评估,危害是伤害的潜在来源,由整车层面的危害行为导致,场景是伤害发生的助推因素。参考危害事件模型,如图1所示,

abe7c040-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

图 1标准中的SOTIF危害事件模型

在进行危害行为和危害分析之后,需要构建场景与危害进行“匹配”,进而形成可能导致伤害的危害事件,这里构建场景的目标是为已经分析出的危害找到合适的发生环境,该环境包含使危害可导致伤害的条件,该环境也是推导伤害发生的助推因素。预期功能安全场景生成的过程,也是从未知场景中发现已知危害场景的过程。

2.1研究方法

预期功能安全场景的生成方法主要可分为3个关键执行步骤(见图2),第一步,建立从危害行为到危害的映射关系表达,得到关联规则,形成映射关联表;第二步,对场景要素进行特征分析,进行场景要素分类及标注,形成一个基于关键场景特征的场景要素标注集;第三步,基于第一步建立的关联表,进行触发条件关联,形成带触发条件的危害映射表,然后,匹配危害映射表与场景要素标注集,形成危害场景集,该危害场景集也就是预期功能安全场景。

ac0703d8-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

图 2研究方法总体框图

(1)从危害行为到危害的映射关系表达

首先建立从危害行为到危害事件的映射关系表达,得到关联规则,形成映射关联表。

ac2da826-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

图 3危害行为映射关系表达

危害行为列表基于整车控制输出与引导词,共计定义18个基本的潜在危害行为,见表1.

表1基于引导词的危害行为表

ac436198-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

危害的三个最底层来源需要考虑对交通的危害、对车内人员的危害、对道路边界保持的情况,因此,构建六类危害:车内人员感到不适、与前车保持的安全距离过小、与后车保持的安全距离过小、与侧面车辆的安全距离过小、与道路边界过近。

理论上,像场景一样,危害依据不同的考虑范围,能被定义出无穷无尽的类型。但本文所定义的危害与危害行为,一个面向最底层来源,一个面向整车输出,因此具备与其他不同危害类型直接或间接映射的能力,其他各类不同危害也都能被纳入本文提供的危害列表之中。比如考虑道路覆盖情况时可以有车辆打滑的危害等,该危害可以映射至表1中的加速度/减速度过小的危害行为,以及与前车/后车保持的安全距离过小(当有前后车时),或与道路边界过近(当道路为弯道、或打滑导致车辆侧移时)。

危害行为是对主车的异常输出的描述,危害是对主车在场景中可能面临潜在风险的描述,所以从危害行为到危害的映射需要加入对场景关键点的考虑。与危害匹配过程中需要考虑的场景关键点:分别是主车与他车、主车与道路以及触发条件。因此,定义危害行为、危害、场景关键点,以确定三者之间的对应和映射关系。映射关系可由下式表示:

ac5f1258-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

其中,ac7bccf4-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000表示第i个危害行为(来自表1)。ac8fd988-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000表示第j个场景中可关联危害的场景关键点,aca8e9d2-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000表示由第i个危害行为与第j个场景要素组合产生的第1个危害。具体,考虑18个基本的危害行为,以及场景中交通参与者与主车的相对位置关系,以及场景的道路是否弯曲两类关键要素,构造危害行为与导致危害场景关键点的关联表,见图4。

acc7a28c-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

图 4危害行为与导致危害场景关键点的关联表

该表描述了危害行为与危害的关联,在关联过程中考虑了必要的场景要素。这种关联是定性式的,并且以相对有限的危害行为与危害的组合,关联到了数量庞大的场景,关联介质为场景中的他车和道路这两类要素。该关联方式可用于构建危害的场景集。

(2)基于四类场景特征进行场景关键要素标注

根据预期功能安全场景建立的目标需求,为已经分析出的危害找到合适的发生环境,将关键场景特征分为四类,即四层级的场景架构。

· 第一类是道路特征,主要包括场景中的物理基础设施,是场景限定范围内的道路结构和道路设施等要素的合集。

· 第二类是环境特征,是感知行为的重要来源,环境特征的要素范围包含天气、降水量、风力、时段等。

· 第三类是主车特征,规定了场景中车辆的行为,主车特征的要素范围包含纵向初速度,位置等。

·第四类是交通参与物特征,规定了参与物的行为与交互关系,交通参与物特征的要素范围包含与主车的交互行为、相对位置、相对速度等。

对上述四类场景特征进行细化和拆解后,可得到场景关键要素集以及要素的标签。四类场景特征作为一级标签,可继续拆分为35个二级标签,二级标签可继续拆分为140个场景要素,如图5所示。

acf673be-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

图 5基于场景四层架构的场景关键要素集

由上图可见,其中,第三列的场景要素是场景要素集的最基本组成,要素根据自身的特征可分为语义要素和数值要素,语义要素在场景中的描述为有或无,数值要素在场景中的描述为具体的参数取值,也是逻辑场景进行泛化的待采样参数。

ad023690-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

图 6场景关键要素标注集

(3)SOTIF危害场景库的构建方法

GB/T 43267所提供的链路的主要节点为危害行为、危害、场景,三者存在一定的关联关系。对此,前文提出的关联场景和危害的具体流程,可根据危害行为映射关联表和场景关键要素标注集构造以危害为导向的测试场景集,实现以数量有限的危害关联匹配出数量级较大的危害场景库,该场景库也就是预期功能安全场景库。

ad06257a-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

图 7危害场景库生成示意图

首先,基于已经生成的关联表(图 4),进一步将触发条件与整车危害行为的引导词进行关联。该阶段的关联旨在细化危害行为的发生条件,确保测试场景集能够全面覆盖各种可能的触发条件。且通过与触发条件的关联可以以更小的颗粒度匹配逻辑场景中的主要触发要素。

场景中的触发条件即场景危害关联要素,包括合理可预见的人为误用,可以通过FMEA/FTA/STPA等分析方法得到,这里不展开描述。具体触发条件要素详见下表。

ad23f8c0-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

图 8触发条件分类体系

然后,基于场景关键要素标注集,通过要素集笛卡尔积的方式进行组合生成测试场景库。根据文章:自动驾驶测试场景库的构建及评价方法(一),“定义场景要素集为S,则有ad37cf9e-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000ad4861ba-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000其中ad51bcec-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000为一级标签下的场景要素子集,ad6b86a4-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000为二级标签下的场景要素子集。定义危害关联要素为ad871874-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000。进而,一个关联危害的场景库Sces可以表示为:

ad96111c-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

其中,“X”表示笛卡尔积。”在对场景要素集进行组合时,同时对场景要素进行标注,包括要素的频率、风险性、复杂性标注,并将对要素标注的结果继承至由其组合成的场景中。最终,形成一个基于关键场景特征分析的场景库。

最后,将上述形成的场景库中的场景与危害、危害行为进行匹配,从形成的场景库中筛选出与特定危害或危害行为相匹配的场景,进而构建出一个面向某个特定危害的测试场景集。该测试场景集可以包含特定的潜在危害行为与危害,也能够反映出这些危害在不同条件下可能发生的具体场景,最终得到SOTIF危害场景库。

2.2.研究方法的优势

以上的研究方法不仅能够充分地描述场景,还涵盖了触发条件,并且便于搭建。

首先,四大类特征的提取能够充分的描述场景。4大类特征的提取可以全面地描述车辆所处的场景,能够表达自动驾驶车辆在多种路况下应对的多变的环境条件和交通状况;自动驾驶算法需要处理大量的环境数据,以确保自动驾驶车辆能够安全、高效地行驶,以及在行驶过程中,车辆可能会遇到的情况:如不同道路类型,变化的交通状况,多样的天气条件以及各种潜在的障碍物。有效的特征提取能够从原始数据中提炼关键信息。

其次,四大类特征的提取能够涵盖触发条件。特征的提取对于理解和预测触发条件至关重要,这些提取的特征是一个多层次、多维度的信息处理过程,是分析触发机制的重要参考。

最后,四大类特征的提取易于模拟仿真的实现。道路特征可以通过满足OpenDRIVE格式来实现,通过特征提取,可以构建出精确的道路模型,并在仿真环境中加载这些模型来模拟真实的道路情况。交通参与物特征及主车特征可以通过OpenSCENARIO来实现,可以设置不同类型交通参与物的速度、加速度、路线、交互规则等参数,例如,可以创建一个场景,其中包含多个车辆在不同车道上行驶,并且根据交通灯信号或其他车辆的存在进行加速或减速。同时,可以定义主车的传感器配置、感知范围、决策逻辑等,例如,可以模拟主车识别前方的障碍物并执行换道操作,或者根据交通信号调整速度。环境特征可以使用工具进行更丰富的环境模拟,例如,可以设置不同的天气情况,观察其对传感器性能和车辆行为的影响。

三、典型案例


该章节提供了一种在给定危害行为下的潜在危害与危害场景集生成的执行案例。

根据上述方法的执行步骤,如下:

(1)从危害行为到危害的映射关系表达

根据引导词“过小”,结合整车输出的“减速度”,得出当给定危害行为为减速度过小时,系统遍历危害行为映射关联表,该危害行为可关联危害为“与前车保持的安全距离过小”;对应的危害匹配过程中需要考虑的场景关键点是“自车前方存在他车或其他交通参与物”。

(2)基于四类场景特征进行场景关键要素标注

基于四类场景特征筛选场景要素进行笛卡尔积,得到组合后的场景关键要素标注集。例如:

adce572a-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

(3)SOTIF危害场景库的构建方法

关联触发条件:引导词“过小”代表自车的实际输出由于场景中的抑制条件,使得其比预期输出要小,场景抑制条件可以是摩擦系数变小的抑制,比如“道路湿滑”、“降雨”、“降雪”等场景要素。这些要素在场景要素集中已被预先标记为潜在的触发条件要素;根据触发条件分类表进行生成带触发条件的危害映射表,如下:

ade2622e-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

将上面形成的表格中的内容与场景关键要素标注集进行匹配,构建该危害对应的危害场景库,场景库见图9。

adfbedca-d7de-11ef-9310-92fbcf53809c.png?imageView2/2/w/1000

图 9危害场景库(部分)

由上图可见,所构建的危害场景库涵盖了对危害行为“减速度过小”及其关联的危害“与前车保持的安全距离过小”的致伤条件和潜在触发要素,即在该场景集中,有较大概率会使得自动驾驶汽车出现该危害行为并引发所对应的危害。

通过Sim Pro仿真工具,将上述步骤分析得出的场景进行仿真验证。

参考资料

[1]https://www.rand.org/pubs/articles/2016.html

[2] GB/T 43267-2023 道路车辆—预期功能安全 [S]

[3]ASAM.OpenSCENARIO[EB/OL].https://www.asam.net/standards/detail/openscenario/, [日期: 2024-08-01].

[4] 中国智能网联汽车产业创新联盟. 智能网联汽车预期功能安全场景要素及管理要求: T/CSAE 336-2023[S]. 北京: 中国汽车工程学会, 2023.

[5]ISO21448-2022SOTIF,Safetyof The Intended Functionality [S]


关键字:自动驾驶 引用地址:自动驾驶测试场景库的构建及评价方法之场景生成方法研究

上一篇:汽车热管理相关知识
下一篇:一径科技引领车路云一体化,激光雷达赋能智慧交通

推荐阅读最新更新时间:2026-03-20 21:09

自动驾驶测试场景的构建及评价方法之场景生成方法研究
自动驾驶测试场景库的构建及评价方法(二) 场景生成方法研究 一、研究背景 智能网联汽车面临多维度安全挑战,其中预期功能安全是重要组成部分。在当前阶段,智能网联汽车产业正处于前所未有的高速发展阶段。众多车企与科研机构投入巨资,致力于技术创新和产品升级。尽管如此,伴随技术进步的同时,安全问题频频出现,不同等级的智能网联汽车产品,在道路测试、示范应用以及正式上路阶段仍然发生了多起事故,事故发生的原因多数是由于自动驾驶系统相关的零部件或者子系统的预期功能没有实现。 场景对于自动驾驶汽车的开发和测试至关重要。由于自动驾驶系统的复杂性,传统的基于规则和基于里程的测试方法已经不适用,需要向基于场景的测试方法转变。据美国兰德公司研究,从统
[嵌入式]
<font color='red'>自动驾驶</font><font color='red'>测试</font><font color='red'>场景</font><font color='red'>库</font>的构建及评价方法之<font color='red'>场景</font><font color='red'>生成</font>方法研究
生成式 AI 重塑自动驾驶仿真:4D 场景生成技术的突破与实践
近年来,伴随 自动驾驶 技术的快速发展,行业对于 仿真 测试平台的精度、覆盖率和可扩展性提出了更高要求。尤其在数据闭环迭代、长尾场景验证及安全冗余验证等关键环节中,高保真、高复杂度的场景生成能力正在成为测试体系的核心支撑。 传统场景生成方式面临效率低、人工成本高、行为多样性不足等问题,难以满足当前 智能 驾驶系统对大规模、多模态、真实物理驱动场景的需求。为应对这一挑战,基于生成式 AI 的4D场景生成技术迅速兴起,构建了从环境建模、行为重建到视觉渲染的完整链条,正在重塑自动驾驶仿真验证的技术基础。 本文将从技术背景、系统能力、核心技术和实际应用四个方面,系统梳理AI驱动的4D场景生成体系及其在自动驾驶仿真中的实践价值。
[汽车电子]
<font color='red'>生成</font>式 AI 重塑<font color='red'>自动驾驶</font>仿真:4D <font color='red'>场景</font><font color='red'>生成</font>技术的突破与实践
研究人员开发自适应控制方法 自动生成自动驾驶仿真场景
配备自动系统的半自动驾驶汽车已经上路,这些系统的软件作为车辆的核心组件,必须持续可靠地满足高质量标准。据外媒报道,来自格拉茨工业大学(TU Graz)软件技术研究所的Franz Wotawa及其团队与AVL信息物理系统测试团队合作,采用自适应控制方法,自动生成广泛的仿真测试场景和系统内部误差补偿,从而保证自动驾驶安全。 (图片来源: TU Graz) 仅依赖测试驾驶并不能为自动驾驶系统的安全性提供足够保障。Franz Wotawa解释称,“自动驾驶车辆必须行驶大约2亿公里才能证明其可靠性,尤其是在发生事故的情况下,比传统汽车测试公里数多1万倍。然而,对生命有危险的关键测试场景并不能在真实测试驾驶中重现。因此,自动驾驶系统
[汽车电子]
研究人员开发自适应控制方法 自动<font color='red'>生成</font><font color='red'>自动驾驶</font>仿真<font color='red'>场景</font>
自动驾驶占用网络是依靠哪个传感器实现的?
自动驾驶技术的演进过程,本质上是人类试图赋予机器理解物理世界几何结构能力的过程。在过去很长一段时间里,感知系统高度依赖于对特定目标的分类与识别,这种方式虽然在简单的道路环境下卓成效,但在面对复杂多变的现实世界时,却暴露出明显的局限性。 如果感知系统在训练集中见过某种标准的轿车或行人,它就能在道路上精准地将其标注出来。然而,当系统遇到那些从未见过的、形状奇特的障碍物时,基于目标的识别算法就会陷入迷茫。为了打破这种对“标签”的依赖,占用网络技术应运而生。 它不再纠结于眼前的物体到底是什么,而是直接回归物理世界的本质,即回答空间是否被占据这一核心命题。这种从语义识别向几何感知的跨越,不仅改变了自动驾驶的底层逻辑,也对硬件传感器的
[汽车电子]
<font color='red'>自动驾驶</font>占用网络是依靠哪个传感器实现的?
追觅芯际连发三款芯片:涵盖手机、自动驾驶等领域,单颗算力高达 2000 TOPS
3 月 11 日下午消息,追觅科技联合主办的“AWE 2026 芯片产业高峰论坛”上,追觅生态企业“芯际穿越”首次透露业务规划,发布了涵盖手机处理器、自动驾驶芯片、个人超级 AI 电脑、泛机器人 SOC,以及太空算力中心等多个前沿领域的芯片产品。 据悉,追觅芯际穿越推出的专为 AI 计算设计的旗舰手机处理器 —— 赤霄 01,搭载自研 NPU 架构,AI 等效算力高达 200 TOPS,可支持复杂逻辑推理与多轮对话的瞬时响应。在图形性能方面,该处理器集成智能超分辨率画质增强、动态分辨率重构、帧率倍增及自适应高清渲染等核心技术。 在智能汽车领域,追觅即将推出一款集成度极高的舱驾一体芯片。在性能参数上,该芯片采用 2 纳米先进制
[半导体设计/制造]
调频连续波(FMCW)为什么是自动驾驶激光雷达的未来?
在自动驾驶环境感知技术的演进过程中,激光雷达始终处于核心位置。作为能够提供高精度三维空间信息的关键传感器,激光雷达的技术路径也正从传统脉冲式飞行时间(ToF)向调频连续波(FMCW)相干探测跨越。 虽然目前市场上绝大多数商用激光雷达仍采用脉冲测距技术,但调频连续波激光雷达因其可以直接测量瞬时速度、极高灵敏度以及天然的抗干扰优势,被业界公认为是实现全固态、芯片化感知的终极方案。 FMCW激光雷达有什么优势? 传统的激光雷达主要依赖飞行时间技术,其工作逻辑可以类比为回声定位。激光器发射一个极短的高能光脉冲,光束在空间中飞行并碰撞物体后反射,接收器计算发射与接收之间的时间差,结合光速便可得出距离。 图片源自:
[汽车电子]
调频连续波(FMCW)为什么是<font color='red'>自动驾驶</font>激光雷达的未来?
什么是VLM?为什么它对自动驾驶很重要?
VLM,即视觉语言模型,简单理解下,其就是把“看见的东西”和“说出来的话”放在同一个脑子里理解的模型。我们平时把相机拍到的画面交给视觉模型去做检测、分割、深度估计这些任务,语音或文本交给语言模型去处理。 图片源自:网络 VLM则是把视觉信号和语言信号放一起训练,使其可以把画面用语言来描述,也能把一句话转化成对画面的关注点和推理。对于自动驾驶来说,这种能力并不只是多了一套“能说话”的模型,而是在很多复杂场景里,它能把单纯的像素识别提升为语义理解。VLM能告诉汽车的不仅是“前面有个物体”,还能明确“这个物体的行为和上下文意味着什么、会不会带来危险”。这种语义层面的理解,对决策端的稳健性和可解释性都很关键。 V
[汽车电子]
什么是VLM?为什么它对<font color='red'>自动驾驶</font>很重要?
自动驾驶如何实现激光雷达和摄像头的时间同步?
对于自动驾驶汽车来说,“看”世界的方式不只有一种,一般情况下,会有多个传感器用来感知交通环境,常见的传感器有激光雷达(LiDAR)、摄像头、毫米波雷达、惯性测量单元(IMU)等等。这些传感器各自以不同方式、不同频率不断采集外界的数据。为了确保感知的准确性,会在感知数据处理时,非常注意时间同步。 为什么要讲“时间同步”这个事儿 之所以时间同步非常重要,是因为不同传感器的每一帧数据都有时间标签(时间戳),时间戳不对齐的话,把它们的数据放在一起看世界就会出错。 举个很直观的例子。摄像头拍照是瞬间行为,某一刻拍摄的图片中,整张图片的数据就是那个瞬间的场景。但激光雷达是通过旋转发射激光脉冲来扫一圈生成点云数据的,一圈可能
[汽车电子]
<font color='red'>自动驾驶</font>如何实现激光雷达和摄像头的时间同步?
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved