前谷歌工程师警告:自治武器可 “意外” 触发第三次世界大战
作者: 日期:2019年09月20日 阅:2,686

Laura Nolan,去年辞职的前谷歌软件工程师,警告称自治武器(Autonomous weapons)恐 “意外” 触发下一次世界大战。

Nolan 去年被公司指派参与美国军方无人机项目,因理念不同愤而辞职。上周末,她指出,军用技术中融入越来越多复杂人工智能可能产生严重负面效果。

Nolan 后来参加了 “禁止杀手机器人运动” (Campaign to Stop Killer Robots),就此话题发表多篇言论。她最近的担忧是人工智能 (AI) 可能最终会发动战争或犯下暴行。

接受英国《卫报》采访时 Nolan 说道:我不是要禁导弹制导系统或反导防御系统。这些毕竟都在人类完全控制之下,终归有人负责。

但自治武器不仅是战争中的技术变革,也是战争伦理的巨大变化。很少有人谈论这些,但如果我们不引起重视,这些杀手机器人可能意外引发战争,摧毁核电站造成大规模杀伤。

其中一个重大问题是,此类军用自治系统只能在战场测试,这就引发更深远的诸多问题了。她诘问道:你怎么训练一个完全基于软件的系统检测细微的人类动作,或者分辨猎人和暴乱分子的不同?

18 岁的战士和 18 岁抓兔子的猎人,这些杀人机器要怎么自行区分?

去年,谷歌拿下美国国防部改进无人机视频识别技术的 Maven 项目,Nolan 为此辞职。3,000 多名谷歌员工签署反对公司参与军方项目的请愿书后,谷歌最终于今年 3 月退出该项目。

与此同时,谷歌设立由八名 “数字伦理专家” 组成的伦理委员会,就 AI 问题提供建议。然而,一个月后,另一个伦理委员会被悄悄解散。

禁止杀手机器人运动详情:

https://www.stopkillerrobots.org/

相关阅读

 

AI武器化后安全界将面临什么状况

亚马逊、微软因开发AI杀手令世界陷于风险之中

 

 

申明:本文系厂商投稿收录,所涉观点不代表安全牛立场!


相关文章

没有相关文章!