美国国防部高级研究计划局(DARPA)目前正在推进两个项目,其目的是寻求研制出一种超级智能无人机,其能够在与总部失去联系的情况下仍然自动对目标发起攻击。
在近日发表在著名的《自然》杂志上的一篇文章力,美国加州大学伯克利分校的计算机科学教授斯图尔特·拉塞尔博士(Stuart Russell)对此表达了担忧,称这种做法将打破《日内瓦公约》,并将人类命运置于机械人之手。
在 这篇文章中,拉塞尔博士写道:“自动武器系统能够在没有人类干预的情况下自动选择并攻击目标,而当它们将人类也包含进目标清单时,情况就将变得十分致命。 现有的人工智能技术已经涵盖了物理平台,感知,运动控制,导航,绘图,战术性决策以及长远规划系统。需要做的是将这些系统整合成为一体。”
他表示:“在我看来,最大的担忧在于这条射出的技术抛物线最后的终点。尽管有着物理学上的极限,但我们可以预料到未来数以百万计的这种智能机器人将被部署。它们所具备的敏捷性和致命性将让人类陷入毫无招架之力的境地,这可不是我们所梦想的未来场景。”
这种机器人被称作“LAWS”,即“致命性自动武器系统”,它们可能将是安装了武器系统的飞行器或是微型坦克,它们将决定哪些人必须死。
DARPA目前正在推动两个项目的实施,它们将有可能最终导致这类“杀手机器人”的研发。其中一项计划名为“快速轻型机器人”(FLA)。其目标是设计一款旋翼机,其能够在没有外界操控的情况下以极高的速度在城市环境或建筑物内部敏捷地飞行。另一个项目则名为“敌对环境下联合作战”(CODE),目标是开发一整队的无人飞行器,它们将能够在完全与总部失去联络的情况下完成一整套完整的攻击程序——搜索目标、锁定、跟踪、攻击打击效果评估。
就在去年,联合国军控高级代表安吉拉·凯恩(Angela Kane)曾经发出警告称我们距离杀手机器人的问世已经仅有一步之遥,并呼吁世界各国予以禁止。然而正如英国政府的反应所代表的那样,各国并不以为然。英国政府外交办公室表示:尽管这项技术的确“存在潜在危险性”,但英国“保留发展这项技术的权利”,以便“保护本国的军队”。
拉 塞尔教授表示:“致命性自动武器系统将违背基本的人类尊严,让机器去选择杀死谁,比如它们可能会被授权杀死‘任何显示潜在威胁行为的人’。我们应当在科学 会议上专门组织针对这方面的讨论并对其进行伦理审查。如果我们什么都不做,实际上就是对这种技术持续开发的推进的支持。”
然而,来自英国布里斯托尔大学的机器人专家塞宾·霍特博士(Sabine Hauert) 则表示,公众无需对人工智能技术的发展而感到担忧。她说:“我和我的同事们会在晚宴时间向大家解释,我们并非一群恶魔,我们花费多年时间潜心研发,目的是 为了开发那些能够帮助老人,改善健康,让我们的工作环境更加安全和有效率,并让我们能够探索太空和海洋的设备。”