datasheet

人工智能芯片的DNA

2018-10-16来源: EEWORLD 关键字:AI

过去十年间,几项技术的进步使人工智能 (AI)成为最令人振奋的技术之一。2012年,Geoffrey Everest Hinton在Imagenet挑战赛中展示了他的广义反向传播神经网络算法,该算法使计算机视觉领域发生了革命性变化。然而,机器学习理论早在2012年之前就有人提出,并且Nvidia GTX 580图形处理器单元等微处理器使这一理论得以实现。这些处理器具有相对较高的内存带宽能力且擅长矩阵乘法,可将该神经网络模型的AI训练时间缩短至大约一周。理论与算法的结合开启了新一代技术进步,带来了与AI相关的全新可能性。本文概述了人工智能设计新时代及其多样化处理、内存和连接需求。

 

人工智能剖析

 

我们将神经网络定义为深度学习,它是机器学习及人工智能的一个子集,如图1所示。这是一个重要的分类,深度学习该子集改变了芯片系统架构设计。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

图1:人工智能采用深度学习算法模仿人类行为

 

深度学习不仅改变了芯片架构,而且催生了半导体市场的新一轮投资。深度学习算法模型是研发和商业投资的热点,例如卷积神经网络 (CNN)。CNN一直是机器视觉的主要焦点。递归神经网络等模型因其识别时间的能力而在自然语言理解中得以应用。

 

人工智能的应用

 

深度学习神经网络应用于许多不同的场景,为使用它们的人提供了强大的新工具。例如,它们可以支持高级安全威胁分析、预测和防止安全漏洞,并通过预测潜在买家的购物流程来帮助广告商识别和精简销售流程。

 

但AI设计并未局限于数据中心,诸如用于物件和人脸识别的视觉系统、用于改进人机接口的自然语言理解以及周围环境感知等许多新功能可基于传感器输入的组合而使机器理解正在发生的活动。这些深度学习能力已融入到不同场景所需的芯片设计中,包括智能汽车、数字家庭、数据中心和物联网 (IoT),如图2所示。

 

图2:AI处理能力已结合到大量应用中

 

手机利用神经网络实现上述多种AI功能。手机可运行人脸识别应用、物件识别应用、自然语言理解应用。此外,它在内部使用神经网络进行5G自组织,因为无线信号在其他介质、不同的光谱上会变得更密集,并且所传输的数据有不同的优先级。

 

人类大脑

 

最近,深度学习通过数学和半导体硬件的进步变得可行。业界已开展多项举措,在下一代数学模型和半导体架构中更好地复制人脑,这通常被称为神经形态计算。人类的大脑可以达到难以置信的高效率,但技术在复制人类大脑等方面才刚开始触及皮毛。人类大脑包含超过1 PB (Petabyte=1024TB)的存储空间,相当于大约540万亿个晶体管,且功率小于12瓦。从这点来说,复制大脑是一个长远的目标。然而,ImageNet挑战赛已从2012年的第一个反向传播CNN算法发展到2015年更高级的AI模型ResNet 152,市场正在快速发展,新的算法层出不穷。

 

AI设计挑战

 

融合深度学习能力的芯片架构促使了多项关键技术的进步,从而达到高度集成的解决方案和更通用的AI 芯片,包含专用处理需求、创新内存架构和实时数据连接。

 

   专用处理需求

 

融合神经网络能力的芯片必须同时适应异构和大规模并行矩阵乘法运算。异构组件需要标量、矢量DSP和神经网络算法能力。例如,机器视觉需要独立的步骤,每一步都需要执行不同类型的处理,如图3所示。

 

 

 

 

 

图3:神经网络能力需要独特的处理

 

预处理需要更简单的数据级并行性。对所选区域的精确处理需要更复杂的数据级并行性,可以通过具有良好矩阵乘法运算能力的专用CNN加速器有效地处理。决策阶段通常可以通过标量处理的方式来处理。每个应用都是独一无二的,但很明显的是,包括神经网络算法加速的异构处理解决方案需要有效地处理AI模型。

 

   创新内存架构

 

 

 

AI模型使用大量内存,这增加了芯片的成本。训练神经网络要求达到几GB甚至10GB的数据,这就需要使用DDR最新技术,以满足容量要求,例如,作为图像神经网络的VGG-16在训练时需要大约9GB的内存;更精确的模型VGG-512需要89GB的数据才能进行训练。为了提高AI模型的准确性,数据科学家使用了更大的数据集。同样,这会增加训练模型所需的时间或增加解决方案的内存需求。由于需要大规模并行矩阵乘法运算以及模型的大小和所需系数的数量,这就要求配备具有高带宽存取能力的外部存储器及新的半导体接口IP,如高带宽存储器 (HBM2)和衍生产品 (HBM2e)。先进的FinFET技术支持更大的芯片SRAM阵列和独特的配置,具有定制的存储器到处理器和存储器到存储器接口,这些技术正在开发中,为了更好地复制人脑并消除存储器的约束。

 

AI模型可以压缩,确保模型在位于手机、汽车和物联网应用边缘的芯片中受限的存储器架构上运行所必需的。压缩采用剪枝和量化技术进行且不能降低结果的准确性,这就要求传统芯片架构(具有LPDDR或在某些情况下没有外部存储器)支持神经网络。随着这些模型的压缩,不规则的存储器存取和计算强度增加,延长了系统的执行时间。因此,系统设计人员正在开发创新的异构存储器架构。

 

   实时数据连接

 

一旦AI模型经过训练并可能被压缩,就可以通过许多不同的接口IP解决方案执行实时数据。例如,视觉应用由CMOS图像传感器支持,并通过MIPI摄像头串行接口 (CSI-2)和MIPI D-PHY IP连接。LiDAR和雷达可通过多种技术支持,包括PCI Express和MIPI。麦克风通过USB、脉冲密度调制 (PDM) 和I2S等连接传输语音数据。数字电视支持HDMI和DisplayPort连接,以传输视频内容,而这些内容可通过神经网络传输后得到改善,实现超高图像分辨率,从而以更少的数据生成更高质量的图像。目前,大多数电视制造商正在考虑部署这项技术。

 

混合AI系统是另一个预计会大量采用的概念。例如,心率算法通过健身带上的AI系统可以识别异常,通过将信息发送到云端,对异常进行更准确的深入AI神经网络分析,并加以提示。这类技术已经成功地应用于电网负载的平衡,特别是在电线中断或出现意外重负荷的情况下。为了支持快速、可靠的网络与云端连接,上述示例中的聚合器需要以太网连接。

 

消除瓶颈

 

尽管复制人类大脑还有很长的路要走,但人类大脑已被用作构建人工智能系统的有效模型,并继续由全球领先的研究机构来建模。最新的神经网络试图复制效率和计算能力,芯片架构也开始通过紧密耦合处理器和内存来复制人类大脑。ARC子系统包括AI及其APEX扩展和普遍存在的RISC架构所需的处理能力。子系统将外设和存储器紧密耦合到处理器,以消除关键的存储器瓶颈问题。

 

用于AI的DesignWare IP

 

AI是最令人振奋的技术之一,特别是深度学习神经网络,通过结合神经网络算法的创新以及高带宽、高性能半导体设计的创新而飞速发展。

 

新思科技正在与世界各地细分市场中领先的AI 芯片供应商合作,提供采用经过验证的可靠IP解决方案,帮助他们降低芯片设计风险,加快产品上市速度,并为AI设计人员带来关键的差异化优势。

 

专用处理需求、创新内存架构和实时数据连接构成了人工智能芯片的DNA,面对AI设计挑战,新思科技提供了许多专业处理解决方案来消除存储器瓶颈,包括存储器接口IP、带有TCAM和多端口存储器的芯片SRAM编译器等,同时提供了全面的实时数据连接选项。这些IP解决方案是下一代AI设计的关键组件。

 

关键字:AI

编辑:muyan 引用地址:http://www.eeworld.com.cn/IoT/2018/ic-news10164432.html
本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:瑞萨独家的DRP技术以低功耗实现了出色的实时图像处理
下一篇:Bridgetek推出人机介面开发模块

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利

推荐阅读

Helio P90押宝AI 联发科技

      上周,联发科技正式发了Helio P90芯片。这颗芯片和以往产品不同,它更加注重AI方面的设计和运算能力,而常规的CPU、GPU反而有点充当配角的意思。联发科技Helio P90芯片  如果你关注这颗芯片,会发现它没有最先进的工艺制程,也没有最前沿的CPU核心架构设计,却将AI运算提升到了旗舰芯片的水准。是的,联发科技Helio P90芯片其实算不上一颗旗舰处理器。  模糊了处理器定位的产品  事实上,Helio P系列芯片一直定位中端,X系列才是联发科技的旗舰产品,只不过受到市场、技术等诸多因素的影响,P系列芯片才成为联发科技主推的芯片产品。  在这个过程中,联发科技提出了“新高
发表于 2018-12-20
Helio P90押宝AI 联发科技

强大的AI性能也难抵行业疲软

集微网消息,近日,联发科Helio P90隆重亮相,在深圳的发布会上,更是以“AI不释手”的主题直奔卖点,强化AI性能。在众多突出的功能中,联发科强调,AI性能才是Helio P90的主打,升级APU 2.0运算单元之后,其AI算力进一步增强,相比上一代提升四倍,超过1.1TMACs(1.1万亿次乘积累加运算),功耗比上一代降低50%,带宽需求也降低50%。预计明年第1季相关终端产品将在全球上市。然而,最新行业报告指出,正面看待P90的AI空间升级,预估很难帮助联发科获得显著的市占率及抵消产业的疲软,并将评等调降至减码,目标价下修至200元新台币(下同),明年每股纯益预估值也下调至13.33元。业内最新出炉的报告对联发科看法保守
发表于 2018-12-20

图玛深维探路医学影像AI获得较大反响 AI正在给医疗带来一场变革

2018年12月15日-12月16日,首届中国医学影像AI大会在上海国家会议中心隆重举行。本次大会由中国医学影像AI产学研用创新联盟(CAIERA,以下简称联盟)主办,中国健康促进基金会、上海市医学会放射学分会、中国医学计算机成像杂志共同承办大会以“需求、引领、共赢、分享”为主题,吸引了超过2000多来自政、产、学、研、医等各相关领域代表、行业领袖、顶级专家参与本次大会。这是首次以医学影像AI为主题的全国性大会,议题涉及医疗影像AI最前沿的技术、落地实践案例、面临困境、挑战及解决方案,注重AI落地应用实践已经成为行业共识。AI正在给医疗带来一场变革医学是人工智能最早引入的领域之一。医学人工智能公司呈雨后春笋般出现,目前已经在
发表于 2018-12-18
图玛深维探路医学影像AI获得较大反响 AI正在给医疗带来一场变革

红米新机:后置4800万像素AI双摄

集微网消息,本月初小米联合创始人兼总裁林斌发了一条关于小米新机的微博,盛赞它用户体验不错,雷军也强调了该机搭载4800万像素的摄像头,让人误以为小米的新机会是一款旗舰机,然而从红米手机转发了该微博看,林斌试用的小米新机将隶属于红米系列。现在这款后置4800万像素的红米新机已经成功入网,它的入网型号为M1901F9T,发证日期为2018年12月13日,是一款支持TD-LTE/LTE FDD/TD-SCDMA/WCDMA/cdma2000/CDMA 1X/GSM制式的双卡双待Android智能手机。硬件配置方面,它用上了5.84英寸FHD+分辨率水滴屏,2900mAh额定电池容量,后置4800万像素AI双摄,后置指纹。其他方面,从国家
发表于 2018-12-18
红米新机:后置4800万像素AI双摄

智能音箱战火凶猛 各巨头落地AI抢占未来入口

的1%增加到2018年Q3度的8%,说是逆袭而来毫不为过。由此,百度、阿里与小米的智能音箱大战已然开打。  国内国外全球发力,智能音箱成风口  2018年被称作智能音箱元年并不过分,国内外巨头猛砸智能音箱,近两年智能音箱实现了跳跃式增长,从小众走向大众成为智能音箱行业发展的趋势。全球发力,一方面是因为其巨大的消费市场,另一方面作为未来的AI入口,互联网巨头们断然不会错过这一战略要地。  1、智能音箱众人爱,大小玩家扎堆干  2014年以来,亚马逊、谷歌和苹果等全球科技巨头纷纷入局智能音箱市场,比如亚马逊的Echo,谷歌Home、苹果HomePod,微软Invoke,Facebook的Portal,他们对市场进行了初步教育,掀开了智能音箱
发表于 2018-12-17
智能音箱战火凶猛 各巨头落地AI抢占未来入口

依未科技:多年的沉淀和技术探索破解AI眼科落地难题

我国传统中医开山著作《黄帝内经》中有一句箴言叫做:上工治未病,中工治已病,下工治末病。然而由于医疗资源的匮乏和不均衡,疾病预防和早期筛查往往被忽视,资源被更多的投入到救治环节,从而使得“医未病”成为一个尚未实现的“梦想”。人工智能的出现,让人类的智慧和机器的效率有机的结合,从而使得“医未病”梦想的实现成为可能。动脉网《2018医疗人工智能报告》数据显示,肺结节筛查和糖网筛查已成为目前医疗人工智能最热门的两大领域,除了腾讯、谷歌等巨头在不断投入外,各大创业公司,也在你挣我夺,助推行业的发展。经过2016,2017,2018年三年的发展,AI应用于眼科仍有一个迈不过去的门槛:即如何突破AI技术瓶颈,实现产品的商业化落地?并在市场和行业
发表于 2018-12-15

小广播

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2018 EEWORLD.com.cn, Inc. All rights reserved
pt type="text/javascript" src="//v3.jiathis.com/code/jia.js?uid=2113614" charset="utf-8">