|
联合国近日开了一场军备控制的会议,讨论杀人机器人会否违反战争法。
杀人机器人(正式名称为“自动化致死武器”)在无人类干预下作出杀戮的决定时,是否侵犯了生命权或人道主义法律?
这个问题的角度同其它反对杀人机器人的意见不同,并非是从技术出发。有反对研发杀人机器人的人认为,人工智能目前并不能可靠地分辨“合法的目标”(如拿着枪的敌对武装人员)和“违法的目标”(如拿着雪糕的平民),违反了战争法的规定。这些技术上的限制在日后有望终将得到解决。但假如“自动化致死武器”是对人权的践踏,那则是哲学上的难题,非科学技术进步所能解决。
译者:兔头新闻原文作者:PATRICK LIN
又有人认为,就算这类武器只攻击合法目标,似乎也侵犯了基本的生命权。可是杀戮是战争中再常见不过的事了。一个人既然当了武装人员,在法律上则代表着他准备好随时丢掉性命。这种情况下,生命权恐怕根本无从谈起。
其实,之所以有这些观点,是因为我们觉得,在武装冲突中,人应有权不被任意、不负责任甚至不人道地宰杀,这就是我们所谓的生命权。也就是说,生命权可认为是尊严权。
人的尊严也许比性命更基本。性命比起尊严,更易剥夺或舍弃。譬如,在文明程度较高的社会,即使是合法的死刑也应当符合人道主义。因此,在思考这个问题时,应从尊严去理解生命权。
* * *
很多情况下,人缺少尊严并不违法。人天天都在做合法却没有尊严的事。说谎、偷情有违尊严,但并不犯法。做爱又有什么尊不尊严的呢?尊严是个模糊的概念。有时候,我们愿意舍弃尊严,换得安全感。在机场过安检,我们愿意让安检人员搜查自己的身体,仿佛自己是犯人一样。这些说明,尊严是一件复杂的事。
对于杀人机器人,人的尊严代表着负责、补偿和尊重。这三者杀人机器人都做不到,因为它们不用人控制。没人控制,我们就无法判定由谁来为认错攻击目标、机器故障负责。没有责任方,就无人需要为误杀误伤赔偿。夺走一个人的生命,是最严肃的决定,需要尊重生命,这也是机器办不到的。
不过,如果我们人为地规定责任方,责任归属这个问题是否就可以解决呢?虽然这对责任方有不公平的成分,并且可能会牵涉出司法问题,但责任归属好歹是解决了,人的尊严也可以得到一定保障。责任方定了,赔偿也就可以进行。
但如何能让自动化致死武器懂得尊重生命呢?这一要求比前面两条都难。目前人工智能和电脑无法明白我们的情感,即使是在可预见的将来也没有可能实现。但话又说回来,在现代世界的冲突中,有尊重这一回事吗?如果没有,尊重其实并不是必要的条件。毕竟,我们不会要求士兵每次按下扳机都掂量一下行为的后果。面对敌人时,很少人会还去考虑对方作为一个有梦想、有恐惧的个体在道德上的价值,顶多想想这人到底是不是一个可以合法攻击的目标。有些士兵甚至是公开的种族主义者或民族主义者,在仇恨、愤怒或其它野蛮的动机下行动。
无论人类士兵在品德上达不达得到要求,他们都有要么正确要么错误的出发点。可对于机器人,哪里来出发点这一说呢?它们并不懂得因为伦理道德而去尊重人。既然是这样,为何拿人类的标准来衡量它们?这就不是技术不逮,而是分类分错了。
打个比方,没人会要求一枚子弹或一枚导弹在发射前必须考虑周到、心怀敬畏,但子弹导弹仍然是战争中的合法武器。即使是对于狗这样认知与人相近的动物,我们也不会这样要求。这些事物都不能进行道德思考,因此我们也不强求。
如果非要加入道德思考,也许可以加在武器的设计环节,毕竟武器的程序都是由人编写、部署的。意即慎思、怀仁的责任落在机器人的设计者上,以及发动军事指令的政治领袖上。当然,说很容易,落实很难。
但既然机器人不能像人一样进行道德思考,我们还应否把人类的标准加诸其上?如果我们能够制定出一个框架,划清责任归属,是否有助于保障人的尊严?这些问题都需要更加深入的研究。
* * *
如果我们决定从人的生命权、尊严权出发去管理自动化致死武器,我们要避免落入简单的直觉判断。模糊的直觉并没有理性支撑。器官移植、输血等历史案例告诉我们,凭直觉或偏见下判断通常是错的。
我们在杀人机器人上制定的法规,还会波及民用机器人和工业机器人。也许不久以后,无人汽车就会正式上路。无人汽车会面临“最优撞人方案”的难题:如果非撞不可,怎么撞损害才最小?程序的算法该怎样编写?是优先撞人少的那个方向吗?无人汽车计算出的决定,很有可能会引致死亡,侵犯人的生命权或尊严。
战争不是好事,但武器禁令的依据不能只是“武器不是好东西”那么简单。武器都是坏东西,因为战争从来不是好事。假如我们不想人类的未来毁于机器人杀手,我们可以对这类武器一禁了之。如果我们想证明杀人机器人未尝不可一用,我们便需要
对人的尊严、人对机器人的控制、机器人的自制能力有更深的认识和研究。
|
|