datasheet

xsy-ai机器人文明

文章数:108 被阅读:58836

账号入驻

谷歌规模最大的一次活动!AI野心显露无遗

2018-07-25
    阅读数:



7 月 24 日,Google Cloud Next 2018 大会在美国旧金山正式召开。


GoogleCloud作为谷歌人工智能未来业务发展的基础性平台,本次大会的关注度并不比GoogleI/O开发者大会小。据说本次大会有超过 20000 人参与,可以说是规模最大的一次 Google 活动了。


来看看本次大会上谷歌在AI方面做了哪些更新。

 

TPU3.0来了!谷歌TPU有多厉害?

 

TPU是Tensor Processor Unit的缩写,这是Google专门为机器学习打造的ASIC(专用集成电路)。相比一般的GPU图形处理器,这种AI处理器不需要32位或16位浮点计算精度,通过8位计算优化之后能够节省更多晶体管。从而大幅节约功耗并减少对系统内存的依赖。是一种快速、智能、实惠的AI芯片。

 

在2016年的时候谷歌就发布了第一代TPU(Tensor Processing Unit),它是专门为机器学习定制的专用芯片(ASIC),一款谷歌自己高度定制化的AI芯片,也是为谷歌深度学习框架TensorFlow而设计的。傍着AlphaGo,TPU作为支撑起强大运算能力的芯片而闻名。

 

今年5月份,谷歌CEO Sundar Pichai在谷歌IO大会上发布了TPU3.0芯片,声称其性能是上一代产品TPU2.0的8倍,达到了100Petaflops(Petaflops,每秒千万亿次浮点运算)。

 

谷歌在大会上宣布TPU3.0即将到来,现在正在进行Alpha内测阶段。测试版提供了CloudAutoML Vision,AutoMLNatural Language和AutoMLTranslation,以帮助开发人员识别新的图像,文本和语言类别。例如,HearstNewspapers正在使用AutoMLNatural Language为其内容带来自定义通用分类法。

 

这款芯片也是AlphaGo背后的功臣,即AlphaGo能以超人的熟练度下围棋都要靠训练神经网络来完成,而这又需要计算能力(硬件越强大,得到的结果越快),TPU就充当了这个角色,更重要的是借此显现出了在AI芯片领域相对于英特尔CPU和英伟达GPU的优势。也就是说,采用TPU之后的AlphaGo的运算速度和反应更快。

 

5年前,谷歌内部就开始使用消耗大量计算资源的深度学习模型,这对CPU、GPU组合而言是一个巨大的挑战,谷歌深知如果基于现有硬件,他们将不得不将数据中心数量翻一番来支持这些复杂的计算任务。

 

谷歌的专用机器学习芯片TPU处理速度要比GPU和CPU快15-30倍(和TPU对比的是英特尔Haswell CPU以及Nvidia Tesla K80 GPU),而在能效上,TPU更是提升了30到80倍。

 


在大会上,李飞飞提到机器学习当前处于极端的环境,一方面像TensorFlow这样的工具,可以使用自定义的方式建立解决方案,另一方面,如CloudVision API这样的预先训练的机器学习模型,以最小的投资和技术水平提供即时结果。但是更多的需求存在于两者之间。

 

 

谷歌打电话AI投入商用

 

谷歌I/O大会上打电话的视频让人印象深刻,这次NEXT大会也持续了这一热潮。

谷歌的愿景始于Dialogflow企业版,这是我们用于构建会话代理的综合开发套件。去年11月推出,现在已经有超过600,000个行业的开发人员在使用。


Dialogflow的许多功能可以显著提高整个企业的效率,但它还不是一个全面的解决方案。大会上,李飞飞宣布了重要更新:


Dialogflow已经通过云语音到文本提供准确的语音识别。为此,通过DeepMind的WaveNet和用于电话集成的Dialogflow电话网关添加了新功能,如文本到语音功能。


但谷歌的真正目标是为联络中心的人力资源代理商以及依赖这些代理商的客户提供支持。为此,谷歌与合作伙伴建立了完整的解决方案,其中包括Dialogflow企业版,这一版本正在获得更准确的语音识别更新,并提供更好的文本转语音以及电话集成等功能。

最后,Contact Center AI使用虚拟代理和AI辅助工具将“从头到尾”提升客户服务体验的各个方面。

  

机器学习开发工具AutoML Vision


从今天开始,机器学习开发工具AutoML Vision将推出Beta公测版,面向所有组织、企业和研究人员开放。AutoML Vision是Cloud AutoML机器学习系统的工具,允许用户针对图像和物体识别开发机器学习模型。非专业用户只需要借助图形界面和易于理解的触摸方式(例如拖拽)即可使用这些工具。


AutoML Vision在今年1月就随同Cloud AutoML项目发布,当时是Alpha版。Cloud AutoML系统可以让不具备机器学习技术和专业编程技能的非专业人士训练自己的自动学习模型,只要使用谷歌云计算服务上现有的工具即可。


AutoML Vision针对的用户是对人工智能和机器学习技术不太掌握的人群——他们可能认为人工智能很有用处,但却没有足够的资源或技术来开发自己的训练模型。


Cloud AutoML拓展新域:自然语言和翻译


谷歌推出了两个新的Cloud AutoML域:一个用于自然语言,另一个用于翻译。谷歌的口语解析和书写文字拆解能力形成了Google Assistant的基础,而其人工智能训练的翻译算法的熟练度也使得谷歌翻译在许多不同语种翻译上取得巨大成功。


当然,你不可能在没有专业知识、资源和数据集的情况下开发像谷歌那么复杂的模型和算法,但有了这些新域,该公司就能简化定制模型基础训练的启动过程。


事实上,出版巨头赫斯特(Hearst)正在使用AutoML Natural Language帮助其标记和组织不同杂志的内容,以及这些出版物的国内和国际版本。谷歌还为日本出版商日经集团提供AutoML Translation,该集团每天都会发布和翻译很多不同语种的文章。


“人工智能可以为人们赋能,我们希望将这种能力民主化,让所有人和所有企业都可以享受到——从零售到农业,从教育到医疗。”谷歌人工智能首席科学家李飞飞在声明中说,“人工智能不再是小众科技——而是每个行业中的企业的差异化因素。我们致力于提供可以带来彻底变化的工具。”


G Suite功能升级:AI语法改错


除了人工智能外,谷歌还对G Suite进行了很多功能升级。

  

首先,Google Docs提供语法建议等功能升级,利用机器学习算法来识别文法错误和修改意见。谷歌表示,它可以理解“a”和“an”的简单使用规则,以及从句等较为复杂的概念。

  

G Suite增加了新的工具,可以自动删除恶意邮件,识别可能被恶意第三方感染的用户。

  

同时,G Suite企业用户现在也可以选择主要数据的存储地区,例如美国、欧洲或全球。

  

此外,谷歌推出Smart Reply机器学习功能,可以利用人工智能针对收到的信息做出简短答复,该功能将会融入Hangouts Chat——一个类似于Slack的企业聊天平台。现有的G Suite客户可以在未来几周使用该服务。此前,谷歌在5月针对Gmail用户推出了自动邮件编写功能Smart Compose,与Smart Reply类似。

  

谷歌指出,除了这些更新外,该公司过去一年还为G Suite增加了接近300项新功能,而目前付费使用G Suite的企业超过400万家,包括惠而浦、博通、普华永道等知名企业。在本周的电话会议上,谷歌CEO桑达尔·皮查伊(Sundar Pichai)也透露G Suite每季度的营收超过10亿美元。


最后

 

谷歌越来越关注神经网络和人工智能,以解决搜索、图像处理和其他计算领域的问题。它也正在通过“AIY项目”这样的计划来促进开发人员和DIY社区对人工智能的兴趣。AIYProjects(AIY计划),其目标是让每个Maker(创客)都能DIY自己的 AI 人工智能产品,让更多人能学习、探索并体验人工智能。今天发布的TPU3.0,也传递着这样的信号。

 

谷歌的这一做法印证了一个芯片产业的发展趋势,即在AI负载和应用所占数据中心比重越来越大的今天和未来,像谷歌、微软、Facebook、亚马逊、阿里巴巴、腾讯等这些数据中心芯片采购的大户,其之前对于CPU和GPU的通用性需求可能会越来越少,而针对AI开发应用的兼顾性能和能效的定制化芯片需求则会越来越多。

 

来源:猎云网、大数据文摘、爱极客、新浪科技


— 完 —


 往 期 精 选 




About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: TI培训

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2018 EEWORLD.com.cn, Inc. All rights reserved