datasheet

Synopsys 新思科技

文章数:100 被阅读:34138

账号入驻

人工智能对自动驾驶汽车的影响

2018-12-07
    阅读数:


近十年来,汽车行业经历了飞速变化,车联网越来越普及,电动机等新的动力系统逐渐成为主流,汽车自动化水平也在不断提高。


每种趋势背后都有强劲的推动力,但其中或许最重要的一个因素是安全。人类驾驶很容易犯错,每年在交通事故中丧生的130万人中,有94%是因为这些错误造成的,另外还有2000万到5000万人因交通事故受伤或致残。在许多国家中,除了伤亡人数外,交通事故产生的成本估计占国家GDP的1%至20%。


为此,许多汽车制造商开始尝试自动驾驶。自动驾驶汽车需要新的摄像头、雷达和激光雷达(LIDAR)模块,另外还需要处理器和传感器融合引擎控制单元(ECU)- 以及新的算法、测试和验证,这些都是为了实现真正的自动驾驶。根据市场分析公司HIS Market的数据,从2016年到2023年,自动驾驶预计将推动汽车电子系统价值的复合年增长率达到60%。这种增长将使汽车在未来10到15年内,自动驾驶水平稳步提高。


* 架构基于宝马、沃尔沃、奥迪、日产现有试制车平台

图1:随着车辆自动化水平的提高,传感器数量也会随之增加(资料来源:IHS Markit)


汽车设计中引入人工智能和深度学习


汽车系统设计人员最初是在高级辅助驾驶系统(ADAS)中运用了传统的嵌入式视觉算法。汽车自动化发展的主要推动因素之一是增加了人工智能(AI)技术,尤其是基于在多层卷积神经网络(CNN)上实现深度学习算法的人工智能技术。这些算法在汽车自动化所必备的对象识别和场景分割任务中,有着极好的发展前途。


自动驾驶汽车需要“看到”前方的道路并了解周围环境,因此需要综合部署摄像头、雷达、激光雷达(LiDAR)和超声波来完成这一任务(图2)。


图2:自动驾驶汽车能“看到”周围环境所需的传感器


每个摄像头收到要处理的未压缩视频流时,人工智能将启用对场景中多个对象的检测和识别,从而提高车辆的情境感知能力。应用人工智能算法应该能缩短开发ADAS所需的时间。原因在于实施了有效的神经网络后,根据新情境对其进行调整并不涉及编写新的代码,而只需要用新数据集对其重新训练即可。


人工智能和机器学习也可能用于汽车中的人/机界面,实现语音识别、手势识别、眼动追踪、自然语言界面和虚拟辅助功能。


面向汽车的深度学习已经在开发中,如使用依赖于在云服务器上运行的神经网络算法的语音识别系统。随着算法变得越来越复杂,车载系统能够更好地理解语音命令,更准确地处理符合正常对话语法的更自然命令语音。类似的方法也将应用于手部和手势识别,以便更安全地控制交互式显示。


在汽车达到完全自动驾驶之前,辅助驾驶系统能够通过识别不正常的脸部或眼睛运动以及异常驾驶行为,监控驾驶员是否困倦。深度学习算法将同时分析汽车(如汽车驾驶方式)和驾驶员(如心率)的实时数据,检测偏离预期模式的行为。辅助驾驶系统把来自多个传感器的数据融合在一起,能实现其他辅助驾驶功能,例如全景泊车辅助功能、碰撞警示和自适应巡航控制功能。


自动驾驶汽车采用经过深度学习培训的传感器系统,能够检测到道路上的其他汽车、可能的障碍物和街道上的行人。这些内容将被区分成各种类型的车辆和不同的车辆行为,如区分停泊的车与刚刚从路侧驶入车流的车。


最重要的是,通过深度学习算法驱动的自动驾驶汽车必须具有确定性延迟,以便捕获传感器输入的时间与汽车执行器响应该输入的时间之间的延迟保持已知且固定。深度学习必须作为汽车嵌入式系统的一部分来实施,以实现实时安全所必需的低延迟,而不作为基于云的服务。


据IHS Markit预测,到2023年,全球约1亿辆新车中搭载的ADAS和信息娱乐应用中将运用人工智能系统,而2015年运用人工智能系统的汽车还不到2000万辆。其中绝大部分汽车一开始是将焦点放在信息娱乐系统的人机界面上。


在汽车应用中实现人工智能和深度学习的其他主要方面包括提供高速无线宽带连接来访问基于云的服务,如用于导航的地图更新,以及通过实施ISO 26262策略来保证功能安全。在汽车行业实施人工智能和深度学习将持续投入算法开发和实现技术,目的是以更低的功耗取得更好的性能。


在对象检测中应用深度学习


为什么汽车系统设计环境中神经网络在优于传统的视觉处理系统?


使用神经网络的其中一个最大区别在于神经网络是采用训练方式,而不是编程方式。在传统方法中,例如在图像中查找对象,程序员可能要从根据像素强度在图像中各个区域中的变化情况来着手分析图像。执行此操作的一种常用算法称为“方向梯度直方图”方法。这种方法可以查找图像中对象的边缘。然而,下一步是编写代码来定义图像中哪组边缘代表的是人。如果系统需要识别公交车或自行车,则程序员需要编写一种新算法,定义哪一组边缘代表公交车或自行车。


深度学习神经网络与此不同。神经网络具有一个输入层和一个输出层,在输入层和输出层之间有一系列隐藏的层。每层由一系列节点构成,每个节点在其输入上具有一定权重,并且可能受总体偏差因子的影响。对这些网络进行“训练”,以识别特定对象的方法是,向这些网络显示标记了对象的大量图像。每个节点会进行乘法/累加计算,以“确定”其所查看的图像部分与已公开的特征图的匹配程度。该计算的输出会成为下一层节点的输入,由此生成的内容可视为是“观点”网络,即图像与所比较的特征图的相似程度的观点。在网络的输出层上,会将网络的决策与标记图像的真实情况进行比较,然后调整整个网络的权重和偏差,以尽可能减小前向预测与现实之间的误差量。以足够高的频率执行这一过程,最终权重和偏差经过不断优化,使网络能够成功地对包含基于其训练的任何对象的图像进行分类。


神经网络技术并不是新技术,但是大量计算能力的可用性使得这种技术的实用性大大增加。大规模的视觉识别挑战激发了这一技术的进步;在这其中,程序员面临的挑战是编写相应代码,使代码有能力根据对大型标记图像数据集的分析,对1000个不同对象进行分类。


2011年,ImageNet大规模视觉识别挑战赛的获胜者是手动编码的计算机视觉程序,错误率为26%。2012年,一项名为AlexNet的神经网络算法参加了挑战赛,使错误率降到16%。这一同比减少幅度相当显著,引起了人们对使用神经网络的大量关注。自从开发基于神经网络的分类器以来,已经迅速取得进步。2015年,一种名为ResNet的算法展现的错误率仅为3.60%,这是第一个在视觉识别任务中能打败人类的算法。


使用CNN并不能完全取代对可编程解决方案的需求,因为仍然需要执行预处理和后处理任务,但该方法已迅速成为图像分类、检测和识别的最先进技术。


在实践中,神经网络的使用分为两个阶段:在监督下进行培训的阶段,在此阶段定义和调整网络,以识别特定对象;推理或部署阶段,在此阶段经过培训的网络会接触新的图像,并判断其是否能识别出这些图像中的任何内容(图3)。培训属于超级计算密集性任务,因此通常会在云数据中心的服务器场中进行。推理则可在现场进行,例如在汽车的ADAS系统中执行,因此运行算法的处理器必须在实现低功耗高性能。


图3:培训和部署卷积神经网络(CNN)


将深度学习用于视觉应用面临的一些挑战是如何获取训练数据集、如何基于数据集训练系统,以及如何以有效的方式实现所得到的推理算法。


目前出现的各种深度学习框架(如Caffe和TensorFlow)通过管理向算法提供标记的训练数据集,计算节点权重以及实现最终网络,从而帮助简化训练过程。


在推理阶段,神经网络的输出基本上是其所看到的内容与所培训内容相符的可能性。下一步是弄清楚如何就这些信息进行决策。对于视觉应用 - 如自动驾驶汽车中的前视摄像头 - 深度学习方法能以同类最佳的精确度来识别行人。然而,CNN只识别单个帧,即静止图像,并记忆之前的内容。接下来的挑战是弄清楚行人如何在图像之间移动,以允许自动驾驶汽车决定接下来该如何做以及是否继续行驶,许多公司正致力于解决这些更高级别的神经网络决策。


深度学习算法


最早使用CNN的一些实现是基于ImageNet挑战赛中优胜者使用的神经网络或图。最初AlexNet非常流行,被当成基准,但现在它的一些层被认为是效率低下且已过时,所以已经失宠。VGG以及GoogleNet和ResNet的版本作为分类图仍然很受欢迎。这些图采用二维图像,并返回图像包含被培训的图中其中一个对象的可能性。还有一类不断发展的局部化图 - CNN不仅可以识别图中的内容,还可以识别对象的位置。例如,RCNN(区域CNN)、Faster RCNN、SSD和Yolo就是这样的图(图4)。


图4:在新思科技 DesignWare EV61上运行的Tiny Yolo CNN图提供了汽车和监控应用的对象检测与局部化示例


行人的对象分类(自行车、汽车或卡车)可用于避免碰撞事故(ADAS例子)。具有足够高性能的CNN引擎也可用于场景分割 - 识别图像中的所有像素(图5)。场景分割的目标与其说是识别特定像素,不如说是识别场景中不同对象类型之间的边界。知道公路相对于场景中其他物体的位置将非常有利于汽车导航。


图5:通过场景分段,识别对象类型之间的边界


大部分研究是为了提高对象检测或识别的准确性。随着准确性的提高,焦点开始逐渐转向以更少的计算获得更高的准确性。减少计算量意味着带宽更低,降低实现所需的功耗。除了新图外,新的研究还专注于优化现有CNN图,以及修剪系数或压缩特征(每层CNN计算的中间输出)。一个重要的要求是确保CNN软硬件支持最新的压缩和剪枝技术。


深度学习视觉实现的芯片选择


汽车上使用的摄像头越来越多,捕获的图像的分辨率和帧率也越来越高。这将使识别对象所需的计算量大幅上升。例如,帧率为30帧/秒的720p视频输入流会生成2700万像素/秒的数据流。使用800万像素、60帧/秒的摄像头时,数据量将增加约17倍,达到48000万像素/秒。因此,找到一种能最小化功耗和面积的高性能人工智能解决方案,对于汽车系统设计人员来说非常重要。


在汽车行业实施人工智能的关键指标是TeraMAC/秒、延迟和功耗。TeraMAC/秒是衡量计算性能的指标,相当于每秒一万亿次乘积累加运算。延迟是指从传感器输入到执行器输出之间的时间。汽车延迟必须很小(毫秒级),才能与汽车速度匹配:以100公里/小时的速度行驶的汽车将在一秒钟内行驶27米,或者相当于汽车在十分之一秒内行驶的距离。功耗是第三个关键指标,因为汽车嵌入式系统无权调用每个处理器数百瓦的预算。展望未来,期望汽车设计人员要求在功率预算低于10W的情况下,计算性能达到50-100 TeraMAC/秒范围,这也并非不合理。其中一些问题将通过转移到下一代工艺节点,并选择优化的神经网络处理器来予以解决。


GPU的出现,开启了人工智能和深度学习计算的时代。通过缩小晶粒尺寸并结合GPU的计算能力,使性能得到提升,这为执行深度学习算法提供了所需的马力。然而,GPU晶粒尺寸越大,功耗就越高(最初是专图形而构建的,后来被用于深度学习),这限制了GPU在功耗敏感的嵌入式应用中的应用能力。在GPU上实现深度学习算法可能需要100W以上的功耗。


矢量DSP - 超大指令字SIMD处理器 - 设计为用于执行常规编程的计算机视觉算法的通用引擎。矢量DSP有能力同时执行多个乘积累加运算(MAC)运算,因此在执行对CNN图的二维卷积时,比GPU更高效。通过向矢量DSP添加更多MAC,能使矢量DSP在每个周期中处理更多CNN,从而提高帧率。


然而,若将专用而不失灵活的CNN引擎与矢量DSP配对使用,可以实现最佳效率。专用CNN引擎可以支持所有常见的CNN操作(卷积、池化、元素积),而不仅仅是加速卷积,而且它还能提供最小面积和功耗,因为它可针对这些参数进行定制设计。视频图像的预处理和后处理中仍然需要矢量DSP。


专用CNN引擎还针对内存和寄存器重用进行了优化。这与CNN引擎可以执行的每秒MAC操作数同样重要,因为如果处理器没有带宽和内存架构来供应这些MAC,系统将无法实现最佳性能。可以调整专用CNN引擎以获得最佳内存,并在最新的网络(如ResNet、Inception、Yolo和MobileNet)中注册重用。虽然CNN已成为嵌入式视觉实施的最先进标准,但CNN的实施方式在不断发展,所以始终是一个不断变化的目标,需要设计人员实施面向未来的灵活解决方案。


人工智能和功能安全


人工智能和神经网络似乎在实现高级辅助驾驶功能和最终汽车自动化方面有着十分光明的前景。这一点完全可以理解,因为汽车行业要求车辆系统正常运行以避免危险情况,并且要求系统能证明有能力检测和管理故障。这些要求受ISO 26262功能安全标准及其定义的汽车安全完整性等级(ASIL)的控制。


深度学习系统需要符合ISO 26262的要求。对于信息娱乐系统而言,达到ASIL B级非常容易。但是要想达到更高的安全关键级别ASIL C级和D级,设计人员需要为系统增加冗余,还需要制定符合ISO 26262严格认证要求的策略、流程和文档策略。


ISO 26262标准的优点在于它允许设计人员以明确定义的最终目标开始进行开发。对于ASIL D级,最终目标是通过故障注入来测试是否达到单点故障和潜在故障指标,以证明达到此级别。此信息在FMEDA(失效模式、影响及其诊断分析)中进行收集,并由安全认证机构进行审核。


除了广泛的达到ASIL B级和ASIL D级的IP产品组合外,新思科技在满足ISO 26262要求方面也拥有丰富的经验,可以为开发安全文化、制定验证计划以及进行失效模式、影响及其诊断分析评估提供相关建议。新思科技还与SGS-TUV有合作关系,可以加快芯片安全评估与认证。


含安全增强包的DesignWare EV6x视觉处理器


为了对在汽车中实施嵌入式视觉的公司提供支持,新思科技开发了EV6x系列嵌入式视觉处理器半导体IP,有ASIL B级、C级或D级安全增强包(SEP)选件。EV6x视觉CPU是一组可扩展的核心,每个核心可以配置使用标量和矢量处理器。矢量处理器具有高度可配置性,因此可以支持多种视觉算法,并且每个视觉CPU可实现高达64 MAC/周期。每个EV6x最多可配置四个视觉CPU。符合IEEE 754标准的可选矢量浮点单元(集成在矢量DSP核心中)及其支持软件,对于单精度运算,性能水平高达328 Gigaflops(每秒浮点运算次数),对于半精度运算,性能水平高达655 Gigaflops。


可编程CNN引擎可从880扩展到1,760 MAC,再扩展到3,520 MAC;在采用16纳米工艺时,可提供高达4.5 TMAC/秒的性能。CNN引擎支持所有标准的CNN图,如AlexNet、GoogLeNet、ResNet、SqueezeNet和TinyYolo。


新思科技达到ASIL B级、C级或D级要求的DesignWare® EV6x嵌入式视觉处理器含安全增强包(SEP)(图6),EV6x嵌入式视觉处理器的成熟芯片与新思科技IP团队的安全专业知识相结合,加快了需要深入学习视觉功能的汽车芯片的发展。含SEP选件的EV6x处理器采用最先进的安全机制和硬件安全功能,如锁步功能、ECC内存、对核心寄存器和安全关键寄存器进行错误检查,专用安全监控器以及每个核心配备一个窗口看门狗计时器。可选的专用安全岛监控并执行芯片内的安全升级和诊断,并保护系统启动。


图6:含安全增强包的EV6x嵌入式视觉处理器


EV6x处理器系列可以扩展以满足不同汽车应用的要求(图7)。通过达到ASIL B级、C级和D级要求选件,有36种不同的配置可满足各种汽车应用需求。采用CNN880的EV61(单核)提供达到ASIL B级要求的低功耗解决方案,具有注意力分散驾驶应用中所需的面部识别功能。前视摄像头需要更多深入学习处理,并且对于自动驾驶汽车具有更高级别的功能安全要求。达到ASIL D级要求且采用CNN3520的四核EV64为前视摄像头行人检测和全景摄像头提供高性能处理。并非所有汽车应用都需要深度学习。对于需要成像雷达的复杂操作,达到ASIL B级、C级或D级要求的双核EV62最为理想。


图7:所需的ASIL级别可能因不同的汽车应用而异,具体取决于安全要求


为了加速ISO 26262兼容代码的开发,达到ASIL D级要求的面向安全性的DesignWareARC® MetaWare EV开发工具包提供了必要的工具、运行软件和软件库,支持为EV6x处理器开发嵌入式视觉和人工智能(AI)应用程序。这些工具支持使用C/C ++和OpenCL™ C编程语言进行软件开发,还支持OpenVX™和OpenCV等开放视觉标准。MetaWare EV工具包中还有一个工具,可以自动将在Caffe和TensorFlow™等流行框架上培训的神经网络图映射到EV6x的各种处理资源,以实现最佳执行。


对视觉深度学习解决方案进行基准测试


嵌入式视觉处理器集用于控制的标量引擎、用于传统计算机视觉编程的矢量DSP(深度学习结果的预处理和后处理需要)和专用CNN引擎于一体,提供在ADAS或自动驾驶汽车中实现视觉深度学习的最小功耗和面积所需的所有马力。由于有多种解决方案可用,因此设计人员需要对最有前途的解决方案进行基准测试,以做出最终决策。对神经网络解决方案进行基准测试,首先须选择有代表性的CNN算法,然后测量能够适应汽车系统功耗和面积预算的精确度和性能。


如图3所示,神经网络培训的输出通常是一组32位浮点权重。CNN算法采用32位浮点格式进行培训,因此这为嵌入式实施的精确度水平设定了标杆。理想情况下,对于嵌入式系统,表示这些权重的精度应该降低到可保持识别精确度的最低位数,从而简化推理硬件,并因此降低其功耗。对于专用CNN引擎,8位到12位的固定点位分辨率可以达到与32位浮点计算相同的精确度。


许多CNN图可以向下量化为8位而不会损失精确度。但并非所有图都是如此。像Resnet152这样的深度图,从起始节点到终止节点的路径距离很长,因此在8位系统中表现不佳。执行更多像素处理类型运算的图形(如Denoiser)在使用8位CNN时也表现不佳。使用高位分辨率(如16位或32位)不会显著提高精确度,但即会对解决方案的面积产生不利影响。


由于CNN引擎本质上是超大型数学协处理器,因此MAC的尺寸对IP的总体面积有着显著影响。嵌入式视觉处理器IP的最准确估计是使用EDA工具执行实际布局。不同的供应商会将这些结果标准化为给定的利用率。务必确保任何面积比较都基于相同的利用率估计值。此外,请确保报告的面积与性能基准使用的配置相同(尤其是内存大小)。


比较嵌入式视觉系统的性能差易并不是一个简单的过程。EV性能并没有标准 - 没有CoreMark或BDTI得分可作为标准。由于嵌入式视觉处理器具有大量乘积累加器(MAC),因此比较MAC的数量可以提供一阶比较。测量TeraMAC/秒可以根据给定深度学习实施的MAC数量和最大频率来提供原始额定马力。IP供应商并不一定会使用相同的参数报告最大频率。频率是基于典型情况还是最坏情况?是在什么温度下的频率?请务必检查这些频率的细节数据,确保它们是基于汽车温度(-40到+ 125℃)的最坏情况。


对于特定CNN算法,比TMAC/秒更精细的指标通常是每秒帧数(FPS)。行业标准的CNN算法(如Yolo V2)可以在每个嵌入式视觉处理器上运行,以比较FPS的基准(也取决于频率)。有许多软件优化技术可能需要组合软硬件支持才能加以利用。验证嵌入式视觉IP性能的最佳方法是要求其在硬件平台上运行,如FPGA平台。新思科技在HAPS-80系统上运行CNN算法进行基准测试。


AXI总线上的带宽通常是与功耗相关的首要问题。外部总线越少,功耗越低。一种方法是增加内存量来减少访问外部总线的需求。然而,越来越多的深度学习研究开始采用修剪和压缩方法,以减少了给定CNN图所需的计算量和内存量。以VGG16图为例。减少系数的数量(通过修剪过程删除接近零的系数并重新培训系统以保持精确度),可以显著减少必须存储在内存中的系数的数量,从而降低带宽。这并不一定会减少计算量和功耗,除非像EV6x一样,有硬件支持跳过零输入的MAC运算。使用8位系数(不需要12位的精确度时)也可以节省带宽和外部存储空间。EV6x支持8位系数和特征图值。


比较视觉处理器IP的功耗并不是件简单的事。尖端IP解决方案通常还未运用到芯片,并且每种方案的实现方式各不相同,因此难以计算和比较IP方案之间的功耗或性能。也没有用于比较CNN解决方案的基准标准。FPGA原型设计平台可提供准确的基准测试,但无法提供准确的功耗估算。


计算功耗的一种方法是运行基于RTL或Netlist的仿真来捕获所有逻辑的切换。通过设计布局,这些信息可以提供良好的功耗估算。对于较小型的设计,仿真可以在数小时内完成,例如在嵌入式RISC核心上运行CoreMark或Dhrystone。对于大型设计,仿真运行速度较慢。需要高帧率的更大的图可能要数周才能达到稳定状态来测量其功耗。对于具有高帧率要求的更大CNN,这种仿真可能需要数天甚至数周时间。IP存在的一种真实风险是,IP供应商跳过这类费力的功耗测量,而更倾向于采用使用较小仿真模型通过快捷方式估算功耗,因此这一问题会被推给下游的SoC供应商,后者会对IP供应商的功耗分析声明进行签收。


新思科技ZeBu服务器(图8)在为IP开发人员和芯片设计人员分析和测量功耗方面,有着极大的优势。ZeBu服务器是业界速度最快的面向完整芯片设计的仿真系统,支持高级使用模式,包括功耗管理验证、综合调试和Verdi集成、与虚拟原型的混合仿真以及架构探索和优化。ZeBu还有额外的仪器来确定所有触发器的开关速率,然后反注释到实际硬件以准确计算功耗,新思科技使用它来确保其嵌入式视觉处理器的功耗估计最准确的。芯片设计人员可以使用ZeBu来调整系统中所有元件的功耗。这有助于将RTL仿真上运行的功耗住址从数周缩短至数小时。


图8:新思科技ZeBu服务器可用于准确估算芯片内元件以及整个芯片设计的的功耗


结论


通过神经网络实现人工智能和深度学习将成为一项强大的技术,支持ADAS以及更高程度的汽车自动化。该领域正在迅速发展,设计人员面临着激烈的竞争,需要提供高效、灵活、可扩展的芯片来处理嵌入式系统中的推理。对于编程和培训生成的神经网络的专家,竞争也越来越激烈,这很可能会促使汽车业的公司和非传统合作伙伴之间进行新的合作。


虽然这些技术可以自由地应用于汽车的非安全关键方面,例如车载信息娱乐系统,但是要满足ISO 26262安全关键级别的功能安全要求,还存在着诸多挑战。选择达到ASIL要求的IP开来发安全文化、制定严格的流程和策略以及聘用安全管理人员,都将有助于满足安全要求。通过结构化验证计划进行各种仿真、验证和测试,也是满足标准要求的必要条件。


     新思科技(Synopsys, Inc.,纳斯达克股票市场代码: SNPS)致力于创新改变世界,在芯片到软件的众多领域,新思科技始终引领技术趋势,与全球科技公司紧密合作,共同开发人们所依赖的电子产品和软件应用。新思科技是全球排名第一的芯片自动化设计解决方案提供商,全球排名第一的芯片接口IP供应商,同时也是信息安全和软件质量的全球领导者。作为半导体、人工智能、汽车电子及软件安全等产业的核心技术驱动者,新思科技的技术一直深刻影响着当前全球五大新兴科技创新应用:智能汽车、物联网、人工智能、云计算和信息安全。 


     新思科技成立于1986年,总部位于美国硅谷,目前拥有13000多名员工,分布在全球100多个分支机构。2018财年预计营业额31亿美元,拥有3000多项已批准专利,为美国标普500指数成分股龙头企业。


     自1995年在中国成立新思科技以来,新思科技已在北京、上海、深圳、厦门、武汉、西安、南京、香港、澳门九大城市设立机构,员工人数超过1100人,建立了完善的技术研发和支持服务体系,秉持“加速创新、推动产业、成就客户”的理念,与产业共同发展,成为中国半导体产业快速发展的优秀伙伴和坚实支撑。新思科技携手合作伙伴共创未来,让明天更有新思!


About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: TI培训

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2018 EEWORLD.com.cn, Inc. All rights reserved