米尔RK3576边缘计算盒精准驱动菜品识别模型性能强悍

发布者:EE小广播最新更新时间:2025-10-30 来源: EEWORLD关键字:边缘  识别  核心板  米尔  AI  模型 手机看文章 扫描二维码
随时随地手机看文章

人工智能与边缘计算深度融合的今天,将AI模型高效部署于终端设备已成为产业智能化的关键。本文将分享基于米尔MYD-LR3576边缘计算盒子部署菜品识别安卓Demo的实战经验。该设备凭借其内置的强劲瑞芯微RK3576芯片,为视觉识别模型提供了充沛的本地AI算力,成功将“智慧识菜”的能力浓缩于方寸之间,充分证明了其作为边缘AI应用坚实载体的卓越性能与可靠性。


实机演示效果

 image.png?imageView2/2/w/1000

本地部署,实时推理。在这段实机视频中,MYD-LR3576正同步运行YOLOv11s(目标检测)与PPLCNetV2(特征提取)模型。其性能核心在于:两个模型的NPU推理时间均被压缩至惊人的20ms/帧,为高性能边缘AI应用提供了坚实底座。


本文以米尔电子的MYD-LR3576边缘计算盒子为例,讲解如何在Android平台部署yolo11s、PPLCNETV2模型实现实时菜品识别。为开发者与研究者提供一份兼具实践参考与技术洞察的模型端到端的部署指南。

 image.png?imageView2/2/w/1000

MYD-LR3576边缘计算盒(搭载米尔基于RK3576核心板)


1.基本介绍


1.1 边缘计算盒

image.png?imageView2/2/w/1000

 米尔MYD-LR3576-B边缘计算盒是一款基于瑞芯微RK3576处理器设计的高性能嵌入式AI设备。 该处理器集成八核CPU架构(4×Cortex-A72 + 4×Cortex-A53)与算力达6 TOPS的NPU(2核心),具备强大的边缘端AI推理能力。

 image.png?imageView2/2/w/1000

产品标配8GB LPDDR4X内存与64GB eMMC存储,支持双千兆网口、WiFi 6、多路USB 3.0及4K显示输出,提供完整的Debian/Linux软件开发环境。

  image.png?imageView2/2/w/1000image.png?imageView2/2/w/1000

凭借其高性能NPU与丰富接口,该设备可高效支撑计算机视觉、智能分析等边缘AI场景,为菜品识别、工业质检等应用提供稳定可靠的硬件平台。


1.2 RKNN-Toolkit2 SDK


要将YOLOv11s、PPLCNetV2等主流AI模型高效地部署在MYD-LR3576-B这样的边缘设备上,并充分发挥其NPU的算力,离不开一个关键的软件工具链——RKNN-Toolkit2。这是由瑞芯微官方提供的核心SDK,专为其RK系列芯片的NPU(神经网络处理单元)设计。



1.2.1 RKNN-Toolkit2 是什么?


RKNN-Toolkit2是一个功能完整的模型转换、推理和性能评估工具包。它的核心作用在于充当一个“翻译官”和“优化器”,将开发者们在主流深度学习框架(如PyTorch, TensorFlow, ONNX等)上训练好的模型,转换成可以在瑞芯微NPU上高效运行的专用格式——RKNN模型。


1.2.2 核心功能与工作流程


该工具链为AI模型在边缘端的部署提供了全流程支持:


  1. 模型转换


• 支持多框架输入: 可直接加载PyTorch(.pt)、TensorFlow(.pb)、ONNX(.onnx)等格式的模型。

• 量化优化: 支持将FP32模型量化为INT8或INT16精度,在保证精度的同时,大幅减小模型体积、提升推理速度、降低功耗。这正是实现20ms超快推理的关键步骤之一。

• 模型优化: 工具会自动对模型图结构进行编译和优化,使其适配RKNPU的硬件架构,提取最大性能。


2. 仿真推理与精度分析


• 在模型部署到物理设备(如MYD-LR3576-B)之前,可以在PC上进行仿真推理,验证模型转换后的正确性和精度,极大方便了前期的调试工作。


3. 性能评估


• 提供模型性能分析工具,可以评估模型在NPU上的理论推理时间和内存占用,帮助开发者进行模型选型和优化。


4. 跨平台部署支持


• 除了Python环境下的开发工具,RKNN-Toolkit2还提供了C/C++版本的运行时库(RKNN API)。这使得开发者可以轻松地将优化后的RKNN模型集成到最终的生产环境中,无论是Linux、Android还是Debian系统(正如MYD-LR3576-B所搭载的),都能实现高效、低延迟的推理。


1.2.3 与MYD-LR3576的完美协同


在本文的菜品识别Demo中,正是利用了RKNN-Toolkit2的强大能力:


• 步骤一: 在PC端将预训练好的YOLOv11s(目标检测)和PPLCNetV2(图像分类)模型通过该工具链转换为.rknn格式文件。

• 步骤二: 将转换好的RKNN模型文件与调用RKNN Runtime的应用程序一同部署到MYD-LR3576边缘计算盒上。

• 步骤三: 应用程序通过RKNN Runtime API加载模型,调用NPU执行计算,最终实现了双模型协同、单次推理均仅20ms的卓越性能。


总结而言,RKNN-Toolkit2是释放MYD-LR3576-B内部6 TOPS NPU潜力的钥匙。 它大大降低了开发者将AI模型部署到瑞芯微边缘计算平台的技术门槛和开发周期,使得构建像实时菜品识别这样的高性能AI应用变得简单而高效。


1.3 RKNN Model Zoo


RKNN Model Zoo 是一个专为瑞芯微NPU打造的 “模型商店” 或 “开箱即用模型库” 。该项目收集了大量经典的、高性能的深度学习模型,并已经过预转换和调优,直接提供了现成的 RKNN格式模型文件,同时附带了完整的示例代码。


RKNN Model Zoo优点:


• 开箱即用的体验: 开发者无需从头开始进行模型训练和复杂的转换调试,可以直接下载所需的RKNN模型文件,利用提供的示例代码在MYD-LR3576等设备上快速运行起来,立即看到效果,极大地缩短了概念验证(PoC)的周期。

• 官方性能保证: 仓库中的模型都提供了详细的性能基准数据,包括在特定RK芯片上的推理速度和精度。这为开发者选型提供了权威参考,确保模型在目标设备上能够达到预期的性能。

• 最佳实践范例: 每个模型都附带完整的C++和Python示例代码,清晰地展示了如何加载RKNN模型、进行数据预处理、执行推理以及解析输出结果。这对于学习如何在自己的应用程序中集成和调用RKNN模型而言,是极具价值的学习资料。


2. 搭建环境


2.1 刷入Android系统


米尔的MYD-LR3576边缘盒子默认是Linux系统,在我们的场景中,需要先刷机为Android系统。

image.png?imageView2/2/w/1000

2.1.1 获取资料


登录米尔开发者中心,在开发者平台注册绑定产品信息,在包装盒侧面会有一个产品型号系列号,可通过微信扫码绑定。 绑定成功后,依次点击我的产品->软件资料->Android14操作系统

 

然后复制提取码后点击“阿里云盘”字样即可打开米尔提供的所有相关资料文件。如:


01-Docs(ZH)/MYD-LR3576-GK Android 软件开发指南-V1.0.pdf

02-Images/myir-image-lr3576-android14.zip

03-Tools


是我们需要的文件,分别是软件开发指南、安卓系统镜像文件以及工具,下载上述文件。


2.1.2 镜像烧录


在软件开发指南中的第四章有详细的镜像编译步骤,开发者可以根据情况自行编译镜像,方便进行自定义。本文直接使用了资料中已经编译好的Android镜像进行烧录。


  1. 安装驱动


驱动安装工具压缩包位于 03-Tools/DriverAssitant 目录下,解压运行 DriverAssitant工具,出现以下界面,首先点击卸载驱动,然后点击驱动安装:

  image.png?imageView2/2/w/1000image.png?imageView2/2/w/1000

2. 烧录镜像到EMMC


RKDevTool是瑞芯微提供的适用于 RK 系列芯片的 windows 下的便捷开发工具,为开发人员提供了固件烧录/镜像烧录|设备擦除|设备切换/固件解包等功能。


  1. 首先登陆边缘盒子,使用Type-C线将边缘盒子的DEBUG(电源接口旁写着Type-C字样)口连接到windows电脑;然后打开设备管理器,配置COM口参数:


• 波特率:115200

• 数据位:8

• 停止位:1

• 校验位:无

• 流控:无

• 打开串口终端软件填入上述参数,然后给盒子上电,即可进入系统;


2. 进入系统后在终端输入reboot loader即可进入loader模式;


3. 打开工具文件夹下的RKDevTool(没有解压请解压),双击RKDevTool.exe,会看到提示:发现一个LOADER设备;


4. 此时点击升级固件->固件,选择刚刚下载的Android镜像文件(刚下载的为zip文件,解压出里面的镜像文件),然后点击升级按钮并等待完成:

 image.png?imageView2/2/w/1000

5. 此时已经完成Android系统的烧录。


2.2 准备RKNN-Toolkit2环境


注意:这里的操作是在另外一台电脑上操作,并且已经配置了python环境或Conda环境。为模型转换、量化以及测试提供基础环境。


  1. 可以直接通过网络安装:


pip install rknn-toolkit2 -i https://pypi.org/simple

# 如果已安装 RKNN-Toolkit2,可通过以下命令升级 RKNN-Toolkit2

pip install rknn-toolkit2 -i https://pypi.org/simple --upgrade


2. 通过本地 wheel 包安装


首先克隆RKNN-Toolkit2项目文件:

git clone https://github.com/airockchip/rknn-toolkit2.git -d 1 


或者手动下载下面涉及到的文件。


然后进入项目根目录后:


# 请根据不同的 python 版本及处理器架构,选择不同的 requirements 文件:

# 其中 cpxx 是 python 版本号

pip install -r packages/arm64/arm64_requirements_cpxx.txt


# 安装 RKNN-Toolkit2

# 请根据不同的 python 版本及处理器架构,选择不同的 wheel 安装包文件:

# 其中 x.x.x 是 RKNN-Toolkit2 版本号,cpxx 是 python 版本号

pip install packages/arm64/rknn_toolkit2-2.3.2-cp310-cp310-manylinux_2_17_aarch64.manylinux2014_aarch64.whl


3. 模型转换


rknn_model_zoo中包含了很多官方已经适配的模型,包括模型训练以及模型转换脚本。

3.1 yolo11模型转换


rknn_model_zoo中已经包含了yolo全系列模型,因此yolo11模型的转换非常简单,我们直接将训练好的模型(通常是.pt格式)先转为onnx格式。该转换过程通常建议在与训练模型相同的环境中进行,如何进行yolo11的模型训练不是本文重点,可参考:


 https://github.com/airockchip/ultralytics_yolo11 进行训练。 转换命令:


# 调整 ./ultralytics/cfg/default.yaml 中 model 文件路径,默认为 yolo11n.pt

# 在 ultralytics_yolo11 的项目根目录执行

export PYTHONPATH=./

python ./ultralytics/engine/exporter.py


执行完毕后,会生成 ONNX 模型。假如原始模型为 yolo11s.pt,则生成 yolo11s.onnx 模型。 然后进入rknn_model_zoo项目根目录,再依次进入examples/yolo11/python路径下,有一个python转换脚本:convert.py,可通过python convert.py 查看脚本帮助文档:


python convert.py 

Usage: python3 convert.py onnx_model_path [platform] [dtype(optional)] [output_rknn_path(optional)]

       platform choose from [rk3562, rk3566, rk3568, rk3576, rk3588, rv1126b, rv1109, rv1126, rk1808]

       dtype choose from [i8, fp] for [rk3562, rk3566, rk3568, rk3576, rk3588, rv1126b]

       dtype choose from [u8, fp] for [rv1109, rv1126, rk1808]


根据文档可知,脚本的第一个参数是要被转换的onnx模型路径,第二个参数是平台,即SOC型号,第三个参数是量化相关,我们的平台是rk3576,如果量化则选i8,不量化则选fp。我们这里选择量化:


选择量化需要准备校准数据,读取的数据路径在脚本中已经固定

为../../../datasets/COCO/coco_subset_20.txt,这里需要修改为我们自己的数据,数量建议至少20张。


python convert.py onnx模型路径/yolo11s.onnx rk3576 i8


转换成功后可看到:

 image.png?imageView2/2/w/1000

脚本默认将转换后的模型存储在../model中。


3.2 PPLCNETV2模型转换


PPLCNETV2网络是Paddle提供的,因此需要使用paddle2onnx工具,先将paddle格式转为onnx格式:


paddle2onnx

  --model_dir models/

  --model_filename inference.pdmodel

  --params_filename inference.pdiparams

  --save_file paddle_feature_one_batch.onnx

  --opset_version 11

  -isd '{'x':[ 1, 3, 320, 320 ]}'


由于RKNN官方没有PPLCNET模型的Demo,因此我们需要自己根据模型转换的API文档编写rknn模型的转换脚本,可复制一份Yolo11的转换脚本进行修改,重点修改模型的输入输出形状、归一化参数等。然后参考yolo11的转换命令进行转换。


4. 菜品识别案例

 image.png?imageView2/2/w/1000

本章将详细介绍基于米尔MYD-LR3576边缘计算盒开发的菜品识别安卓Demo应用。该案例完整展示了从特征库构建到实时识别的全流程,充分体现了设备在端侧AI应用中的实用性与高性能。


4.1 特征注册


特征注册是构建可扩展菜品识别系统的关键第一步,其目的是为系统创建一个本地的、可定制的菜品特征库。


• 操作流程: 用户在Demo界面点击“特征注册”按钮后选择一个事先准备好的文件夹。该文件夹内部包含多个子文件夹,每个子文件夹代表一道唯一的菜品,并以菜品名称命名(例如:“红烧肉”、“清蒸鲈鱼”)。子文件夹内则包含该菜品从不同角度、在不同光照条件下拍摄的若干张图片。

• 技术实现: Demo应用会遍历整个文件夹结构。对于每一张图片,系统会调用内置的PPLCNetV2特征提取模型进行特征提取。该模型会将输入的菜品图片转换成一个高维、紧凑的特征向量(也就是老生常谈的特征嵌入)。最后,系统将每道菜所有图片的特征向量与其名称关联起来,使用向量数据库存储于设备本地,形成一个结构化且高效查询的特征数据库。

该设计的优势在于:用户无需重新训练庞大的深度学习模型,仅需提供数十张示例图片,即可快速、灵活地扩充或修改系统所能识别的菜品库,极大地提升了应用的实用性和适应性。


4.2 菜品识别


Demo提供了三种识别模式,以适应不同场景下的需求:


4.2.1 拍照识别

 image.png?imageView2/2/w/1000

用户可以直接调用设备摄像头,现场对菜品进行拍照。拍完后,系统立即对照片进行识别,并绘制识别结果。


4.2.2 本地图片识别

 image.png?imageView2/2/w/1000

用户可以从手机相册中选择已有的菜品图片进行识别。


4.2.3 实时视频流识别

 

Demo启动设备摄像头并开启实时预览,视频流中的每一帧都会被送入识别流水线。系统能够连续、不间断地进行识别,并将结果实时覆盖显示在视频画面上,提供流畅的“所见即所识”体验。


4.3 识别流水线与性能表现


无论采用哪种识别模式,其核心的识别流水线是相同的,并且都得益于MYD-LR3576强大的NPU算力:


1.目标检测: 当一张图片或视频帧输入后,首先由 YOLOv11s模型进行推理。它的任务是精准定位图片中菜品所在的位置,并输出其边界框,为后续处理划定了关键区域。


2. 特征提取: 系统将YOLOv11s检测出的菜品区域裁剪出来,并送入 PPLCNetV2特征提取模型中,生成该区域的特征向量。


3. 特征比对: 最后,系统将这个新生成的特征向量与特征注册阶段建立的数据库中的所有已知特征向量进行相似度计算(通常使用余弦相似度)。找出相似度最高的已知菜品,并将其名称作为识别结果输出。


性能亮点: 在MYD-LR3576上,经过RKNN-Toolkit2优化后,YOLOv11s和PPLCNetV2这两个模型在NPU上的单次推理时间均稳定在20ms左右,这确保了即使在最耗费资源的实时视频流模式下,系统也能保持较流畅的识别帧率。


4.4 准确率评估功能


为了量化识别系统的可靠性,Demo还内置了准确率评估功能。用户可以选择一个包含已标注图片的测试集,系统会自动运行批量识别,并将识别结果与真实标签进行比对,最终生成一份包含准确率等关键指标的评估报告,为模型优化和特征库完善提供了数据依据。


4.5 案例总结


该菜品识别Demo仅实现了基础功能,且没有做针对性优化,如所有操作都是同步进行,即摄像头数据获取或读取本地图像->格式转换->色彩空间转换->预处理->模型推理->结果后处理这一整套流程都是同步进行,且模型推理时仅使用了一个NPU核心(共两个),如果使用NPU进行图像处理并配合图像队列异步处理以及充分利用NPU核心,其性能可以达到15-20帧。即便Demo没有针对优化,RK3576的性能同样足够支撑端侧复杂AI流水线的能力。从高效的特征注册到实时的多模型推理,其强劲的NPU算力是实现所有功能流畅运行的基石,为智慧餐饮等领域提供了可靠的硬件解决方案。


MYD-LR3576-B边缘计算盒:

image.png?imageView2/2/w/1000

关键字:边缘  识别  核心板  米尔  AI  模型 引用地址:米尔RK3576边缘计算盒精准驱动菜品识别模型性能强悍

上一篇:经典再进化:米尔ZYNQ 7010/7020全面适配2024.2工具链
下一篇:复杂系统需求下,机电设计需要协同

推荐阅读最新更新时间:2026-03-24 20:49

当国产芯遇上机器人:米尔RK3576开发板的ROS2奇幻之旅
当RK3576的强劲“大脑”(四核A72+四核A53)与强大的GPU、VPU、NPU加速模块相遇,一场高性价比的机器人开发革命正在悄然发生。我们成功将完整的Ubuntu 22.04与ROS2 Humble生态系统,完美移植到了这颗国产芯片上。一个稳定、全功能的机器人软件开发平台已经就绪,现在就来一起探索它的强大魅力! 一、系统启动与基础性能展示 1.硬件平台简介 • 开发板:MYD-LR3576 • 存储:eMMC 64GB • 内存:8GB LPDDR4 • 登录信息:root/123456 或 myir/123456 2. 系统基本信息 • 版本:Ubuntu 22.04.5 LTS • 启动速度:H
[嵌入式]
当国产芯遇上机器人:<font color='red'>米尔</font><font color='red'>RK3576</font>开发板的ROS2奇幻之旅
米尔RK3576 + ROS2 SLAM建图与导航实战
文档定位与目标读者 本文档面向具备一定ROS基础、希望深入理解并在实际项目中部署ROS2 Humble + SLAM Toolbox + Nav2完整建图与导航系统的机器人工程师。我们将从零开始,基于米尔RK3576开发板逐步构建一个功能完备的自主移动机器人系统,涵盖环境搭建、机器人建模、SLAM建图、自主导航以及生产级系统的优化与排错。 为什么选择SLAM Toolbox + Nav2? 在ROS2生态中,SLAM(同时定位与建图)与导航(Navigation)是机器人自主移动的核心技术。SLAM Toolbox由Steve Macenski主导开发,是基于成熟Karto SLAM的改进版本,相比传统的Gmappin
[嵌入式]
<font color='red'>米尔</font><font color='red'>RK3576</font> + ROS2 SLAM建图与导航实战
如何移植EtherCAT Igh--基于米尔RK3576开发板
本文将介绍基于米尔电子MYD-LR3576开发板(米尔基于瑞芯微 RK3576开发板)的板端移植EtherCAT Igh方案的开发测试。 摘自优秀创作者-EPTmachine 米尔基于瑞芯微RK3576开发板 EtherCAT IgH需要保证高实时性,Preempt-RT是一种针对实时性能进行了优化的Linux内核。与普通的Linux内核相比, Preempt-RT具有以下优势: 1.实时性能: Preempt-RT提供了更可靠和更精确的实时性能。它采用了一些实时调度策略和机制,使得任务能够按照严格的时间要求执行,从而适用于需要高度可预测性和低延迟的应用场景,如工业自动化、机器人控制等。 2. 硬实时能力: P
[嵌入式]
如何移植EtherCAT Igh--基于<font color='red'>米尔</font><font color='red'>RK3576</font>开发板
如何在RK3576开发板上运行TinyMaix :超轻量级推理框架--基于米尔MYD-LR3576开发板
本文将介绍基于米尔电子MYD-LR3576开发平台部署超轻量级推理框架方案:TinyMaix 摘自优秀创作者-短笛君 TinyMaix 是面向单片机的超轻量级的神经网络推理库,即 TinyML 推理库,可以让你在任意低资源MCU上运行轻量级深度学习模型。 关键特性 核心代码少于 400行 (tm_layers.c+tm_model.c+arch_cpu.h), 代码段(.text)少于3KB 低内存消耗 支持 INT8/FP32/FP16 模型,实验性地支持 FP8 模型,支持 keras h5 或 tflite 模型转换 支持多种芯片架构的专用指令优化: ARM SIMD/NEON/MVEI,RV32P, RV
[嵌入式]
如何在<font color='red'>RK3576</font>开发板上运行TinyMaix :超轻量级推理框架--基于<font color='red'>米尔</font>MYD-LR3576开发板
搭载国产最新8nm制程SOC,米尔RK3576开发板初体验!
摘自优秀创作者:电子开发学习 据说瑞芯微近期出了第二代8nm高性能AIOT平台——RK3576。 内置了四核Cortex-A72+四核Cortex-A53,频率最高2.2GHz,内置ARM G52 MC3 GPU,NPU算力高达6TOPS…… 总之,参数看着非常犀利,我们近期也拿到了米尔科技推出的搭载RK3576的开发板——MYD-LR3576,在使用了一段时间之后,给大家推出这篇上手体验文章,供您在做选型时参考。 01 开发板欣赏 包装盒里最主要的东西当然就是MYD-LR3576开发板本身以及一个纸质的快速上手指南,另外盒子里还有电源适配器和USB线,但是我认为这些附件无需展示。 板子依然是米尔最经
[嵌入式]
搭载国产最新8nm制程SOC,<font color='red'>米尔</font><font color='red'>RK3576</font>开发板初体验!
研华边缘AI新方案:NVIDIA Jetson Thor助力医疗、机器人、大模型领域迎接新机遇!
2025年秋季,全球边缘计算方案厂商研华科技发布了一系列基于NVIDIA Jetson Thor模块的、面向多应用场景的边缘AI解决方案。 NVIDIA Jetson Thor系列为边缘AI树立了全新标杆,其AI算力最高可达2070 FP4 TFLOPS,同时CPU性能与能效均有显著提升 。这些技术突破使NVIDIA Jetson Thor成为客户在边缘端集成AI与应用工作负载的理想平台。 研华科技通过软硬件一体化解决方案,将这一强大性能落地于机器人、医疗AI及数据AI等现实应用场景。每套解决方案均配备面向特定应用优化的硬件平台,并预集成JetPack 7.0开发套件、远程管理工具及垂直领域软件套件(如机器人套件Robotic
[工业控制]
研华<font color='red'>边缘</font><font color='red'>AI</font>新方案:NVIDIA Jetson Thor助力医疗、机器人、大<font color='red'>模型</font>领域迎接新机遇!
GPU模型推论效能升级 边缘运算装置AI更强大
GPU模型推论效能不断提升,各种边缘运算装置上所内建的人工智能(AI)能力也变得更加强大。 NVIDIA旗下软件目前已可协助客户做8位与16位的神经网络运算优化,不仅让GPU模型的推论(Inference)更形完善,同时对硬件资源的需求也明显降低,只需要一小块电路板就能支持AI算法。 针对边缘运算日益渐增的需求,NVIDIA近期推出了新款开发版Jetson TX2,将整套人工智能系统缩小在一块电路板之上,为商用无人机、工业机械、智能型摄影设备等领域,提供进阶的导航、影像与语音识别功能。 相较前一代产品Jetson TX1,Jetson TX2的效能提升了两倍,耗电量则不到7.5瓦,能源效率提升了两倍多。 这让Jetson TX2可
[半导体设计/制造]
英特尔携生态伙伴展示AI计算参考设计最新成果
加速智能边缘应用落地英特尔携生态伙伴展示AI计算盒参考设计最新成果 2021年7月28日,深圳—— 今日,在以“同芯智远,共赢边缘”为主题的2021英特尔AI计算盒参考设计(以下简称“AI计算盒”)主题分享会上,英特尔携手边缘AI领域的众多合作伙伴一同见证了英特尔AI计算盒一系列最新落地成果。同期,英特尔高管与多位技术专家还就边缘AI技术的发展趋势展开深入探讨,并围绕英特尔AI 计算盒的软硬件技术特点进行了全面剖析。会上,来自信步科技、优哲信息、云图睿视、极视角、智芯原动、趋视科技、开域集团、中科创达、小钴科技、神州数码等领先科技企业的代表还透过AI计算盒生态建设,各自企业在边缘AI领域所打造的多样化解决方案,生动展现了英特尔
[物联网]
英特尔携生态伙伴展示<font color='red'>AI</font><font color='red'>计算</font><font color='red'>盒</font>参考设计最新成果
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved