datasheet

杀手机器人来了 这可能是你见过最恐怖的视频

2017-11-22来源: 澎湃新闻 关键字:人工智能  机器人  致命性  武器

上周,在日内瓦举办的联合国特定常规武器公约会议上,一段可怕的视频公诸于众:视频中,一群神似《黑镜III》中机器杀人蜂的小型机器人,通过人脸定位瞬间杀死了正在上课的一众学生,场面血腥。

  伯克利大学教授、资深AI研究者Stuart Russell在视频的最后提醒人们,想象一下,这些致命的自动武器一旦落入恐怖分子之手,可能造成怎样的后果。

  先来看看视频里几个可怕的画面:

  一个体型类似蜜蜂的小型机器人飞入会场并轻易躲过演讲人抓捕,其拥有 anti-sniper 技术,完全基于 AI。

本文图片均来自央视财经微信公号

  这个小东西蕴含可怕的黑科技:广角摄像头、传感器、面部识别,且在其中部,还有3克炸药。

来看看它的攻击效果,一击而中,极端致命。

  看到这个武器,小编立马想起了《三体》里一种终极形态的武器——“水滴”,它形状与普通水滴相似,由被强互作用力紧密锁死的质子与中子构成,密度巨大,无坚不摧,仅一个水滴就能接连摧毁人类的一千多艘飞船,打击方式也是直接、精准穿透关键部位,和这段视频里一样。

  视频最后还演示了一段飞行机器人集体攻击人类的画面,通过面部识别定位,轻易杀死了正在上课的一班学生。

杀手机器人真的来了么?

  在视频结尾,Russell发出警告,尽管这段视频和其中的杀人机器人并非真实,但视频中的科技目前已经存在。要避免视频中的悲剧发生,我们需要尽快行动。

  这段视频发布在本月13-17日的联合国特定常规武器公约会议上,这一会议由“杀手机器人禁令运动”(Campaign to Stop Killer Robots)组织,超过七十个国家的代表出席。

  杀手机器人:未来无人战争之忧

  今年8月20日,在墨尔本举行的2017国际人工智能联合大会上,包括美国特斯拉电动汽车公司CEO伊隆·马斯克、DeepMind联合创始人穆斯塔法·苏莱曼在内的116位机器人和人工智能公司创始人发表公开信,呼吁联合国在国际范围内禁止“致命性自主武器系统”的使用。

  公开信指出,致命性自主武器系统足以构成第三次武器革命的威胁——前两次革命分别是火药和核武器。这种技术一旦开发成功,将有可能把战争冲突升级至从未有过的规模,而且会达到人类难以控制的速度。公开信的签署者们认为,致命性自主武器可能成为独裁者和恐怖分子残害无辜的手段,或者被黑客挟持。

  致命性自主武器系统实际上是一种军用机器人,它可以不经过人类干预,自主选择和攻击包括人员和装备在内的军事目标,所以也被叫做“杀手机器人”。目前,拥有“人格”的智能技术尚未被从科幻电影搬到现实中,但是与此有关的技术的确正在朝着这个方向发展。

  有人认为,在未来,致命性自主武器系统如果应用于战争,在军事方面会起到许多正面作用。例如,降低己方士兵的风险,降低人与人之间近距离战争的代价。此外,自主武器系统也省去了军人的薪水、住房、养老、医疗等开销,又在速度、准确性上高于人类,而且不用休息。有别于人类战斗员会在战场上出现心理和情绪波动的特点,人工智能武器更稳定,并且能够抵达人类不可及之处,完成搜救和保护任务。

  西安政治学院军事法学系教授宋新平分析,致命性自主武器的运用,意味着自然人在武装冲突中直接发挥的作用越来越小,武器所发挥的作用则越来越大,将影响并改变未来战场的战斗员构成与战斗能力的变化,特别是这种武器的集群式运用,对未来作战的指挥体制、力量运用、供给保障等方面将产生革命性影响。

正在海上进行试验的美国Sea Hunter自主战舰。

  争议“杀手机器人”

  但是,随着致命性自主武器系统的发展,它所带来的争议也越来越强烈。

  首先,有人担忧,机器打仗使得人员伤亡大大减少,反过来又会降低战争发动的门槛,武装冲突发生的机会会增加,而战争的人员损失将从战斗员转移到交火区域的平民。

  其次,如同所有战争中的武器一样,致命性自主武器系统要运用在战争中,必须符合《日内瓦公约》,即国际人道法。反对者认为,该武器系统违反国际人道法中的“区分原则”,即机器人武器很难做到和人类一样区分平民与战斗员、有战斗能力的战斗员和丧失战斗能力的战斗员(如伤者、病者及战俘),以及作战人员和携带轻武器从事非战斗任务的人员。

  在伦理方面,致命性自主武器运用于未来的武装冲突中,这意味着将剥夺自然人生命的权利交给非自然人。有学者认为,这是将人的生命和人格尊严交给机器来判定,不具有平等性,也是对人类生命权以及人格尊严的侮辱。

  法律上的责任更是不能忽略。自主武器兼具“战斗员”和“战斗武器”两种角色,如果它违背国际人道法,国际社会将面临如何追究责任的问题,而被追究的主体应该是设计者、制造者、操作者还是机器本身?

  今年8月发出的公开信不是伊隆·马斯克等人第一次对致命性自主武器系统提出警示。早在2015年,同样在国际人工智能联合大会上,物理学家斯蒂芬·霍金、苹果联合创始人史蒂夫·沃兹尼亚克等1000多名人工智能领域专家联合谴责人工智能时代的军备竞赛,呼吁禁止自主武器。容易引发军备竞赛、威胁世界和平,是反对者担忧的原因之一。

但是,也有人认为以上反对意见作为禁用致命性自主武器的理由站不住脚。研究人工智能哲学的复旦大学教授徐英瑾在《技术与正义:未来战争中的人工智能》一文中进行了反驳。比如,对于“无人智能武器的出现,会使得杀戮变得更为容易,因此,也会使得军事暴力在未来变得更为频繁”的说法,徐英瑾提出,按照杀戮效率提高会对和平构成威胁的逻辑,那是否为了降低杀戮效率,就制造尽量劣质的枪支,鼓励士兵降低击中率?这显然是荒谬的,相反,人工智能技术运用于军事,会使得人类作战意图得到更精确的贯彻,可使得正义战争快速结束。

  人工智能公司、国际组织纷纷呼吁禁止致命性自主武器系统,但现状是,至今国际社会仍然没有就致命性自主武器系统问题达成统一认识,甚至还没有统一的定义。

  联合国《特定常规武器公约》成员国已经建立了一个致命性自主武器系统的政府专家小组,这个小组的第一次会议预定将于今年11月召开。伊隆·马斯克等公开信签署者希望专家小组努力寻求方法,防止这类武器的军备竞赛,保护平民免受武器滥用的伤害,避免这些技术给世界的未来带来严重的后果。


关键字:人工智能  机器人  致命性  武器

编辑:鲁迪 引用地址:http://www.eeworld.com.cn/afdz/article_2017112211332.html
本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:四方面论证人工智能不会对人类产生威胁
下一篇:德国禁止儿童手表,央视早已揭露它的缺陷

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利

推荐阅读

腾讯医疗新科技亮相 安全高效智慧健康描绘医疗新图景

科普知识,帮助用户了解自己的身体状况。需要就诊不知道挂什么科?此时,用户只需一句话描述症状,医院AI智能导诊助手就能在1 秒内为精准匹配科室,还能帮你找到最适合的医生,实现线上分诊挂号一步到位。在挂号后,用户还可以使用微信医保支付缴费,免去排队的烦恼。就诊过程中,人工智能技术与医疗深度融合而成“黑科技”,也为用户带来不一样的就医体验。拍完片子后,小助手“腾讯觅影”可以帮助医生为患者看片子,快速准确地找到病变位置,进行疾病筛查。对于麻烦、耗时的帕金森病诊断,医生利用帕金森病运动功能智能评估系统这项新技术,可以更高效地评测帕金森病患者的病情,对患者进行分级,并制定针对性的治疗方案,不仅可以提高测评精度,还为患者节省了大量就诊时间。在诊后
发表于 2018-12-10
腾讯医疗新科技亮相 安全高效智慧健康描绘医疗新图景

美国惊现机器人伤人事件,智能危机恐提前上演?

随着科技的发展,人工智能发展迅速,机器人也出现在了人们的视野中,对于人工智能最直观的解释,可能来自好莱坞电影。《终结者》、《A.I.》、《I,Robot》、《黑客帝国》等众多经典科幻电影,都描绘了一个机器人与人类共存的世界。然而,大部分的论调都集中在“机器毁灭人类”、“机器控制人类作为其能源来源”等方面,所以机器人到底是人类的朋友还是敌人,总是讨论的重点。本周三早晨,亚马逊新泽西仓库突然发生了一起机器人至伤事故,导致24名工人住院。具体来说,在新泽西的亚马逊运营中心,一罐防熊喷雾突然从货架上掉落下来,并释放出大量浓缩的辣椒素,导致数十名工人呼吸困难,24人因此住院,其中1人情况危急。至于防熊喷雾突然掉落的原因,官方表示是因为一个
发表于 2018-12-10
美国惊现机器人伤人事件,智能危机恐提前上演?

面部识别技术:亚马逊和微软声称人工智能可以解读情感

企业和政府正在积极测试面部识别技术,测试的范围从警务人员到一些普通的员工。更细微的测试正在进行中,他们背后的技术公司保证:自动的情感识别技术可以很快帮助机器人更好地理解人类,或者检测汽车司机的是否在驾驶车上时因为愤怒乱开车。面部识别技术是指利用分析比较的计算机技术识别人脸。人脸识别是一项热门的计算机技术研究领域,其中包括人脸追踪侦测,自动调整影像放大,夜间红外侦测,自动调整曝光强度等技术。人脸识别技术属于生物特征识别技术,是对人本身的面部特征来区分个体。但是专家警告说,试图解释面部表情的面部识别算法可能会侵犯到人权。这些声明是AI Now研究所年度报告中的一部分,他们是一个研究人工智能对社会影响的非营利组织。该报告还包括了监管人工智能
发表于 2018-12-10
面部识别技术:亚马逊和微软声称人工智能可以解读情感

未来竞争聚焦在人工智能和芯片领域

近日,国际金融论坛(IFF)第15届全球年会在广州举行,在“IFF政策对话:技术创新与全球发展”圆桌讨论中,来自科技和企业界的专家共话全球技术创新,第一财经整理了部分观点发表。以下为中金公司董事总经理、电子及技术硬件行业首席分析师黄乐平的发言:非常有幸来跟大家分享一下我们对人工智能(AI)和半导体这两个行业的一些观点。现在,这两个行业基本上占据着中美竞争的两个重要制高点。AI到底对人类有什么影响?麦肯锡的调查报告显示,人工智能未来十年对GDP的推动是1.2%,人工智能将从方方面面影响我们的生活和行业。第一个方面叫替代或者叫放大器。对于现有的工作而言,比如说我们以前用五个人做一条生产线,现在通过数字化或者智能化的方法,就在同样
发表于 2018-12-10

5G将为人工智能带来什么

近日,三大运营商已经获得5G试验频率使用许可批复,这意味着全国范围的大规模5G试验将展开。据了解,中国电信获得3400MHz-3500MHz共100MHz带宽的5G试验频率资源;中国移动获得2515MHz-2675MHz、4800MHz-4900MHz频段的5G试验频率资源;中国联通获得3500MHz-3600MHz共100MHz带宽的5G试验频率资源。5G网络作为移动网络的下一代标准,诸多企业纷纷布局,据相关报道称,5G网络将在2020年落地并商用,而在2018年的今天,5G相关设备已经被诸多大型企业拉出来“遛弯”:华为在MWC2018上,它已经展示了全球首款5G商用芯片以及终端;高通发布骁龙855,其集成集成5G新空口(5GNR
发表于 2018-12-07

AI的天花板与助跑器

人工智能(AI)的声势似乎不复去年之勇。项目变少了,业内薪酬涨势停滞,投资人开始讨论AI的泡沫问题,舆论的风向也从鼓噪转向了质疑。客观讲最近一年时间,AI的基础层、技术层和应用层都没有出现革命性的理论,而AI的9个热门方向——芯片、自然语言处理、语音识别、机器学习应用、计算机视觉与图像、技术平台、智能无人机、智能机器人、自动驾驶的商业化进展参差不齐,和与深度学习有关的自动驾驶等领域,则一直处在商业化的边缘徘徊。当多年后我们回头看眼下这段时间,到底是爆发前的静默,还是漫漫长夜的无聊片段?大公司与小公司的殊途同归这一年,谷歌旗下的Waymo自动驾驶技术仍在测试,尽管FCA代工的车队正在扩张,Waymo也一度宣称商业化“近在眼前
发表于 2018-12-07
AI的天花板与助跑器

小广播

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 视频监控 智能卡 防盗报警 智能管理 处理器 传感器 其他技术 综合资讯 安防论坛

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2018 EEWORLD.com.cn, Inc. All rights reserved
pt type="text/javascript" src="//v3.jiathis.com/code/jia.js?uid=2113614" charset="utf-8">