datasheet

硬件的未来在AI、AI的未来在材料

2018-03-13来源: 21IC中国电子网 关键字:AI  硬件发展  智能化

由于,人工智能(AI)担负工作与目前大多数计算机的运算工作有些不同。然而,AI隐含着分析预测、推理、直观的能力与功能。实时是最有创意的机器学习算法也受到现有机器硬件能力的束缚。因此,若要在AI方面取得长足进步,我们必须在硬件上进行改变,或是半导体材料上进行突破。演变从GPU开始,引入模拟设备(analog devices),然后演变成为具容错性量子计算机(fault tolerant quantum computers)。



现在从大规模分布式深度学习算法应用于图形处理器(GPU)开始将高速移动的数据,达到最终理解图像和声音。DDL算法对视频和音频数据进行训练,GPU越多表示学习速度越快。目前,IBM创下纪录:随着更多GPU加入能提升达到95%效率,就能识别750万个图像达到33.8%,使用256个GPU 于64个Minsky电源系统上。


自2009年以来,随着GPU模型训练从视频游戏图形加速器转向深度学习,使分布式深度学习每年以约2.5倍的速度发展。所以IBM曾于2017年IEEE国际电子设备会议(2017 IEEE International Electron Devices Meeting)针对应用材料发表Semiconductor Futurescapes: New Technologies, New Solutions,谈到需要开发哪些技术才能延续这种进步速度并超越GPU?


如何超越GPU


IBM研究公司认为,GPU的转变分为三个阶段进行:


1、首先将在短期内利用GPU和传统的CMOS构建新的加速器以继续进行;


2、其次将寻找利用低精密度和模拟设备(analog devices)来进一步降低功率和提高性能的方法;


3、然后进入量子计算时代,它可是一个机会,能提供全新的方法。


在CMOS上的加速器还有很多工作要做,因为机器学习模型可以容忍不精确的计算。正因为“学习”模型可以借助错误学习而发挥作用,然而,在银行交易是无法容忍有一些许的错误。预估,精准运算快速的趋势,到2022年每年以2.5倍在提高。所以,我们还有五年时间来突破模拟设备(analog devices),将数据移入和移出内存以降低深度学习网络的训练时间。因此,analog devices寻找可以结合内存和运算,对于类神经演算的进展将是非常重要的。


类神经演算如同模拟脑细胞。神经元(neurons) 结构相互连接以低功率讯号突破von-Neumann的来回瓶颈(von-Neumann’s back-and-forth bottleneck),使这些讯号直接在神经元之间传递,以实现更高效的计算。美国空军研究实验室正在测试IBM TrueNorth神经突触系统的64芯片数组,专为深度神经网络推理和挖掘信息而设计。该系统使用标准CMOS,但仅消耗10瓦的能量来驱动其6400万个神经元和160亿个突触。


但相变化内存(phase change memory)是下一代内存材料,可能是针对深度学习网络优化的首款仿真器件。


进入量子时代 (quantum)


据IBM公司的研究论文,在Nature Quantum Information中展示了机器学习中量子的优势证明(“Demonstration of quantum advantage in machine learning”),展示了只有五个超导量子位处理器,量子运算能够稳定减少达100倍运算步骤,并且比非量子运算更能容忍干扰的信息。


IBM Q的商业系统现在有20个量子位,并且原型50个量子位设备正在运行。它的平均时间为90μs,也是以前系统的两倍。但是容错系统在今天的机器上显示出明显的量子优势。同时,试验新材料(如铜相通的替代品)是关键 - IBM及其合作伙伴在IEDM上推出的其他关键芯片改进,以推进所有运算平台,从von Neumann到类神经及量子。


解决处理器到储存器的连接和带宽瓶颈,将为AI带来新的储存器架构,最终可能导致逻辑和储存器制造过程技术之间的融合。IBM的TrueNorth推理芯片就是这种新架构的一个例子,其中每个神经元都可以存取自己的本地储存器,并且不需要脱机存取储存器。


借助训练和推理形式的AI运算,必须推向边缘装置上(edge devices),例如:手机、智能手表等。因此,这将兴起由计算设备组成的网络系统。大多数这样的边缘装置会受到功率和成本的限制,所以他们的计算需求可能只能透过高度优化的ASIC来满足。现在,传统无晶圆厂半导体公司是否有能力提供这类型的ASIC或是否由AI芯片新创公司例如云端服务提供商,由谁主导目前还为时过早。


备注:*冯诺伊曼架构(von Neumann bottleneck):是一种将程序指令内存和数据存储器合并在一起的计算机设计概念架构,因此也隐约指出将储存装置与中央处理器分开的概念。在CPU与内存之间的流量(数据传输率)与内存的容量相比起来相当小,在现代计算机中,流量与CPU的工作效率相比之下非常小。当CPU需要在巨大的数据上执行一些简单指令时,数据流量就成了整体效率非常严重的限制,CPU将会在数据输入或输出内存时闲置。由于CPU速度远大于内存读写速率,因此瓶颈问题越来越严重。

关键字:AI  硬件发展  智能化

编辑:王磊 引用地址:http://www.eeworld.com.cn/wltx/article_2018031319721.html
本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:对话爱立信CTO Erik Ekudden:回答关于5G的一切疑问
下一篇:机器人才是工业应用的主角

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利

推荐阅读

5G将为人工智能带来什么

(5GNR)毫米波(mmWave)模组;英特尔宣布明年下半年发布5G调制解调器;……从巨头们布局5G的步伐中不难看到5G网络的“魅力”,然而,5G网络又将对AI产生哪些影响?5G:更高的速率带动更快的响应随着AI的发展,越来越多的行业开始利用AI为自己提升工作效率,而在AI的落地过程中,“端”和“云”成为两个不同的道路,AI在端的应用,能达到较快的反应速度、更加安全,而在“云”端,AI的运算能力更为强大、算法优化实时更新,可以说,对于没有隐私需求的用户来说,云端AI成为不二的选择。就目前来说,在部分不适合布局网线的场景中,3G/4G移动网络还是主流无线传输,而作为划时代的4G网络自从2013年全面铺开,经过数年来的建设和应用,早已成为当前
发表于 2018-12-07

AI的天花板与助跑器

人工智能(AI)的声势似乎不复去年之勇。项目变少了,业内薪酬涨势停滞,投资人开始讨论AI的泡沫问题,舆论的风向也从鼓噪转向了质疑。客观讲最近一年时间,AI的基础层、技术层和应用层都没有出现革命性的理论,而AI的9个热门方向——芯片、自然语言处理、语音识别、机器学习应用、计算机视觉与图像、技术平台、智能无人机、智能机器人、自动驾驶的商业化进展参差不齐,和与深度学习有关的自动驾驶等领域,则一直处在商业化的边缘徘徊。当多年后我们回头看眼下这段时间,到底是爆发前的静默,还是漫漫长夜的无聊片段?大公司与小公司的殊途同归这一年,谷歌旗下的Waymo自动驾驶技术仍在测试,尽管FCA代工的车队正在扩张,Waymo也一度宣称商业化“近在眼前
发表于 2018-12-07
AI的天花板与助跑器

企业的人工智能,用户的“人工智障”,AI不值得?

2016年是“人工智能”概念最火热的年。年初AlphaGo与人类围棋冠军的数场大战,直接将“人工智能”这个概念炒到了最火热的地步。资本和创业者疯狂涌进AI赛道,甚至吃瓜群众们也开始将“AI会不会毁灭人类”当做了茶余饭后的谈资。但是如今三年过去了,当科技君再回首人工智能虚火旺盛的这几年发展过后,我发现市面上不可避免的出现了一些伪人工智能产品,以及人们过度消费人工智能话题所带来的疲惫和审丑。失业的人工智能“员工”在人工智能最火热的时候,伴随着不少媒体的炒作,AI机器人似乎化身成为了无所不能的存在。无人驾驶汽车、无人超市、AI客服、AI金融分析师等等半真半假的产品被推向了聚光灯下。人工智能大军来势汹汹,似乎下一秒就会取代所有人
发表于 2018-12-07
企业的人工智能,用户的“人工智障”,AI不值得?

英特尔在5G、AI领域大秀肌肉,亮相中移动大会

,让运营商能够在单个服务器上以较少的CPU和RAM资源消耗来满足5G IPSec安全需求,并实现5G核心网络和边缘计算应用。 在5G展区,Skydome演示展示了5G网络下的智慧城市和物联网的应用案例,现场还展出了企业级层面的Open uCPE 解决方案&软件定义企业分支,以及一个正式的网络技术培训计划——英特尔网络学院。 AI 多任务并行释放英特尔®至强®可扩展处理器的推理性能英特尔至强处理器广泛用于人工智能尤其是深度学习应用。流行的深度学习开源框架,都已经过英特尔软件团队的优化,可在英特尔平台上为深度学习训练和推理提供最佳性能。在优化的开源框架下,通过创建多个独立的深度学习推理实例,更进
发表于 2018-12-07

高通骁龙855:AI性能提升3倍 为5G铺平道路

  新浪科技讯 当地时间12月5日上午消息,高通在美国夏威夷开始举办为期3天的#骁龙技术峰会#,继昨日公布明年5G计划之后,今日公布了新旗舰骁龙855移动平台的更多细节。  昨天高通公布了一点信息,具体可以看[高通骁龙技术峰会首日:骁龙855亮相 5G时代要来了],骁龙855移动平台主要特点:  1、1+3+4模式的核心架构  2、第四代AI人工智能引擎  3、拍照提升支持AI抠像  4、游戏高通自己开挂  5、首次支持4G/5G  今日的大会主要根据以上五点逐一分析。  1、骁龙855移动平台核心架构:  骁龙855移动平台核心架构采用7纳米制程工艺,整体架构的模式为1+3+4,共内置八个核心,其中一个为最大频率2.84GHz
发表于 2018-12-07
高通骁龙855:AI性能提升3倍 为5G铺平道路

联发科Helio P90内置新一代APU,AI技术平台升级 .

   2018年最后一个月,我们迎来了一波手机芯片升级。第一款是高通的旗舰处理器骁龙855,这款芯片如今在高通骁龙峰会上初露头角;第二款就是联发科技即将发布的Helio P90,定位中高端。  在Helio P90发布前,联发科技举办了一场“超强AI算力技术沟通会”,重点讲解了应用在即将发布的P90芯片上的NeuroPilot v2.0技术,以及联发科机对未来AI技术产品的规划。联发科技计算与人工智能技术群处长吴骅讲解AI技术  NeuroPilot技术平台升级2.0  NeuroPilot是联发科推出的人工智能平台,最早亮相于2018年CES展会,此后联发科将其运用在Helio P60芯片中。这一
发表于 2018-12-07
联发科Helio P90内置新一代APU,AI技术平台升级 .

小广播

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2018 EEWORLD.com.cn, Inc. All rights reserved
pt type="text/javascript" src="//v3.jiathis.com/code/jia.js?uid=2113614" charset="utf-8">