专家回应 116位AI专家杀手机器人禁令没有建设性

2017-08-24 18:03 出处:其他 作者:PConline 责任编辑:wuyiying1

       【PConline资讯】8月22日消息,上周日,包括埃隆·马斯克(特斯拉和SpaceX公司CEO)在内的116名企业家联合发表了一封致联合国的信。信中警告称,AI武器是具有极大危险性的“潘多拉盒子”,它们自己决定何时开展杀戮。对此,包括卫报和华盛顿邮报在内的外媒都报道称,马斯克和他的同事曾呼吁对“杀手机器人”实施“禁令”。

  显然,这些新闻标题具有一定的误导性。首先,这封信并没有明确呼吁禁令,尽管其中一位组织者暗示说这是禁令。相反,它为去年12月成立的联合国自动武器委员会提供技术建议。该组织警告称自动化机器“可能是恐怖的武器”是有一定道理的,但试图彻底禁止它们可能是在浪费时间和精力。

  这并不意味着禁止武器技术是不可能的。例如,约有192个国家签署了禁止化学武器的《化学武器公约》,一项阻止使用会造成永久性失明的激光武器的国际协议。

  自行决策的武器系统是一个完全不同的、范围更广的类别。由人类控制的武器和自主开火的武器之间的界限是模糊的,许多国家(包括美国在内)已经开始越界。此外,机器人飞机和地面交通工具等技术已经被证明有用,武装部队可能会给予他们更多的自由(包括杀戮的自由),这是大势所趋。

  美国国家情报总监办公室最近发布的一份关于人工智能和战争的报告得出结论称,这项技术将极大地增强军事实力。报告的合著者、无党派智库“新美国安全中心”的兼职研究员Greg Allen认为,美国和其他国家不可能阻止自己制造武器军械库,这些武器可以自行决定什么时候开火。“你不太可能完全禁止自动武器,”他说,“使用它们的诱惑将会非常强烈。”

  美国国防部确实有一项政策,就是在部署致命武器时,要让“人处于决策圈内”。但它并未表示将对禁止自动武器的国际协议持开放态度。美国国防部本周一没有立即回应记者的置评请求。据悉,2015年,英国政府对禁止自动武器的呼吁做出回应,称没有必要使用自动武器,而且现有的国际法已经足够。

  你不必费力就能找到已经在某种程度上做出了自己决定的武器。一个例子是美国海军使用的宙斯盾舰载导弹和飞机防御系统。据新美国安全中心的一份报告称,该系统能够在不需要人类干预的情况下,与接近的飞机或导弹进行接触。

  其他的例子还包括一架名为“ Harpy”的无人机,它是在以色列开发的,用于地区巡逻,以寻找雷达信号。如果探测到了,它就会自动地对信号源进行俯冲轰炸。以色列航空航天工业公司将这种“Harpy”无人机作为一种“开火后就遗忘”的自动武器。

  2015年,马斯克与数千名学术界和工业界的人工智能专家一起签署了一封公开信,呼吁禁止攻击性使用自主武器。就像上周日的信件一样,它是由生命未来研究所组织协调的,据悉该机构研究人工智能和其他技术的长期影响,马斯克向其赞助了1000万美元。

相关阅读:

迪士尼也来研究人工智能啦 将AI用于动画制作

http://pcedu.pconline.com.cn/981/9811536.html

聊天也能托管了:脸书推出AI自动聊天神器

http://pcedu.pconline.com.cn/981/9811485.html

滴滴弓峰敏:AI善恶与否取决于人类的选择

http://pcedu.pconline.com.cn/980/9803126.html

 

软件论坛帖子排行

最高点击 最高回复 最新
最新资讯离线随时看 聊天吐槽赢奖品