首页 > 军事 >

英防长警告称新技术将带来更大战争威胁:核战风险加剧(3)

2018-10-16 21:39:37 网络整理 阅读:156 评论:0

这似乎让一个极为严肃的话题变得过于轻松。这些故事尽管引发了人们深层的恐惧,说到底不过是娱乐。不过,让这一讨论的焦点最终集中在机器人技术有好有坏上,进而暗示只要我们避免坏的技术,就会天下太平,这样的方式未免过于简单。

这个问题要更为复杂。一方面,这涉及更广泛、也越来越紧迫的机器人道德规范的问题;另一方面,这也关乎现代战争的本质。

我们如何让自动技术系统既安全又遵守道德规范?避免机器人给人类造成伤害是阿西莫夫在小说《我,机器人》中所探讨的主题,这本科幻小说短篇集对后世影响巨大,以至于阿西莫夫的“机器人三定律”如今有时几乎与牛顿的三大定律一样重要。具有讽刺意味的是,阿西莫夫的小说主要是关于这些出发点良好的定律如何在一些情况下遭到破坏的。

无论如何,道德问题不能简单地被当做一个放之四海而皆准的原则。历史学家尤瓦尔·诺亚·哈拉里指出,无人驾驶汽车需要一些行为准则来确定在面对不可避免并有可能致命的碰撞时应该怎样做:机器人应该去救谁?哈拉里说,或许我们会得到两种模式:利己主义(把驾驶员的生命放在第一位)和利他主义(把别人的生命放在第一位)。

“人权观察”组织2012年的一份关于杀人机器人的报告带有些许科幻色彩。报告说:“将害怕的平民与具有威胁性的敌方战斗人员区分开来,需要士兵了解一个人行为背后的动机,这是机器人办不到的事情。”此外,“机器人不能受到人类情感和共情能力的约束,而这种情感和共情能力会对杀戮平民的行为起到重要的阻止作用。”但是前面的说法是在表达一种信仰——使用生物特征识别技术的机器人在作出评估方面难道不比用直觉去判断的惊恐的士兵更胜一筹吗?至于后面的说法,给人的感觉是:有时的确如此。但是另外一些时候,身处战区的人也会肆意强奸和屠杀。

相关文章