datasheet

QbitAI量子位

文章数:551 被阅读:5210871

账号入驻

图像标注,三倍加速:谷歌AI新方案,数据民工的福音 | Demo可玩耍

2018-10-23
    阅读数:
膘栗子 发自 凹非寺
量子位 报道 | 公众号 QbitAI

标注数据,可能是AI模型训练里最艰巨的一个部分了。

计算机视觉首当其冲,标注图像需要投入大量人力。

比如,在Coco-Stuff数据集里,标好一幅图需要19分钟,164,000幅就超过5万小时了。

于是,谷歌AI团队开发了一种新的方案,官方表示可以3倍提升标注速度。

方法名叫Fluid Annotation (流体标注) ,借助机器学习的力量来贴类别标签 (Class Labels) 、勾出每个物体的轮廓和图片里的背景,为人类减轻压力。

谷歌AI把这项研究称作“尝试加速数据标注的第一步”,也即将在ACM MM 2018大会上演示这一步。

怎么用呢?

这个方法,从预训练的语义分割模型Mask R-CNN的输出开始,生成大约1,000个图像片段 (Image Segments) ,每个片段有自己的类别标签置信分

(每个像素都要被划入一个类别,比如花、树、人、路等等。)

置信分最高的那些片段,就可以传到人类那里进一步做标注。

人类,可以在一个操作板上修改机器分割的结果。

比如,修改某个片段现有的标签,例如把坦克改成汽车

比如,加入一个片段,来弥补缺失的物体,也可以删除片段:

再有,可以调整重叠片段的深浅顺序,上移这个片段,下移另一个片段:

团队提供了一个demo,里面有五个样本,大家可以自己去调一调看 (传送门在文底) 。

效果能超过纯人类么?

现在,把流体标注 (人机协作) 的效果,和人类辛勤劳作的结果对比一下。

 左为原图,中为人类标注,右为流体标注

肉眼看去,AI标注的效果已经和人类相差无几。

谷歌团队在博客里表示,人类标注在物体边界的把握上依然略胜一筹。

所以,下一步的研究重点,就是加强边界的标注。

当然,速度也要继续提升啦。

Demo传送门:
https://fluidann.appspot.com/

论文传送门:
https://arxiv.org/pdf/1806.07527.pdf

加入社群

量子位AI社群开始招募啦,欢迎对AI感兴趣的同学,在量子位公众号(QbitAI)对话界面回复关键字“交流群”,获取入群方式;


此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。


进专业群请在量子位公众号(QbitAI)对话界面回复关键字“专业群”,获取入群方式。(专业群审核较严,敬请谅解)

活动策划招聘

量子位正在招聘活动策划,将负责不同领域维度的线上线下相关活动策划、执行。欢迎聪明靠谱的小伙伴加入,并希望你能有一些活动策划或运营的相关经验。相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



最新有关QbitAI的文章

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: TI培训

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2018 EEWORLD.com.cn, Inc. All rights reserved