人工智能被带跑偏 已学会歧视与偏见

2017-04-17 18:21:02来源: 中关村在线 关键字:人工智能  歧视  偏见

人工智能的发展是为了让其学习和模仿人类,以实现对人类社会的帮助。可是,英国卫报近日发表文章称,人工智能学习人类实在太敬业,不仅学习人类的优点,还染上了人类的恶习——人工智能已经开始出现种族歧视和性别偏见了。


据科学家们研究,让人工智能产生种族及性别偏见的主要问题来自于机器学习时,人类语言和文化中根深蒂固的偏见被AI吸收而且得到了强化。科学家表示,人工智能由于算法和人类不同,这种偏见被强化的可能性更高,因为其无法有意识的去抵制所学到的这些。


人工智能目前存在的问题在于,其经常会把欧美人的名字和“快乐”之类的愉快的词语联系在一起,而非裔人的名字则通常和不愉快的词联系在一起。这种算法将很容易影响到人们的正常生活,比如当人工智能系统进行简历筛选时,会很容易让非裔失去面试邀请的机会。

而目前,业内部分人士已经开始意识到这个问题的严重性,他们主张在机器学习中新增一项名叫“单词嵌入”的工具,用于改变计算机解读语音或文字的方式,下一步将会自然的开发AI的拟人化能力,比如常识和逻辑等。

这一问题并非近期才出现的,微软在去年推出的Twitter机器人就因其不当言论被紧急下线。人类的文化和语言历史太长,这会对人工智能造成的影响可能超出了我们的预估。


关键字:人工智能  歧视  偏见

编辑:鲁迪 引用地址:http://www.eeworld.com.cn/afdz/article_2017041710475.html
本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:以新零售为入口 安防厂商智能化转型大势所趋
下一篇:百度AI布局再进一步 买下美国计算机视觉新创xPerception

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利
推荐阅读
全部
人工智能
歧视
偏见

小广播

独家专题更多

东芝在线展会——芯科技智社会创未来
东芝在线展会——芯科技智社会创未来
2017东芝PCIM在线展会
2017东芝PCIM在线展会
TI车载信息娱乐系统的音视频解决方案
TI车载信息娱乐系统的音视频解决方案
汇总了TI汽车信息娱乐系统方案、优质音频解决方案、汽车娱乐系统和仪表盘参考设计相关的文档、视频等资源

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 视频监控 智能卡 防盗报警 智能管理 处理器 传感器 其他技术 综合资讯 安防论坛

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2017 EEWORLD.com.cn, Inc. All rights reserved