杀手之滥杀风险
人类底线在哪里?
在科幻电影中,机器人的滥杀主要有三种原因。一是某台中央电脑产生邪恶意识,从而操控其控制下的机器人发动对人攻击,如《机械公敌》《终结者》等都是如此;二是机器人本身由于故障或病毒或自主意识产生了反抗乃至屠杀制造者的思想,如《变形金刚》。还有更多的情况,则是野心家或幕后集团刻意的造出了杀人机器人,只不过,有时他们反过来失去对机器人的控制而已。
据美国媒体报道,过去几个月,对于使用全自动机器人的辩论日益增多。有人坚称,机器人在战场上能拯救更多生命。美国陆军肯尼斯少校勾勒出机器人技术在战场上的几大优势:机器不会疲倦,下雨时不需要躲到树下,也不需要交谈。但是人权组织对“全自动杀人机器人”的担心,主要是伦理道德层面的。
相比科幻电影,现实中机器人滥杀无辜的可能性远不止这些。有智能的机器也是机器,是机器就有出故障的可能,而且智能化越高,出故障风险越大。全自动杀人机器导致滥杀固然是可怕的;但就算现在的半自动杀人机器,难道就是安全的么?侦察系统可能获取错误的信息,造成对目标的误判;后方遥控信号可能被干扰,接收到错误的攻击指令。
而且,比机器更可怕的是操作机器的人。即使软硬件不出故障,也可能因为操作者的疏忽大意造成误伤。而军人的恶念更是战争罪行的直接来源。以美军为例,在伊拉克、阿富汗打着反恐名义杀伤的大量平民,很多是不能怪罪到武器系统的。国际机器人武器控制委员会主席诺艾尔撰文称:“随着战争变得越来越自动化,我们必须扪心自问,我们的底线在哪里?”(杨益)