您做在的位置: 中国投资 > 热点推送 > 董青岭:人工智能不应用来伤害生命

董青岭:人工智能不应用来伤害生命

文/ 董青岭 对外经济贸易大学国际关系学院教授

人工智能不应用来伤害生命

文|董青岭  对外经济贸易大学国际关系学院教授


导读:致命性自主武器的发展已成全球性热点话题,它所引发的核心忧虑是:将人的生命权交由智能机器裁决是否适当?如果任由这一态势发展下去,人类个体会不会随意被智能机器所猎杀?

致命杀戮的去人类中心化

平民生命权的尊重与安全保护

监管和约束致命性自主武器  

当前,伴随着人工智能在军事化领域的应用,人们对未来安全问题的忧虑日渐加深:未来自主武器的发展能否精确区分平民与战斗人员,恪守国际人道主义规范;自主武器一旦脱离人类控制并犯错,谁又将为自主武器的决策和行为承担责任;有关生死的致命决策完全交由机器来抉择,是否意味着未来人类社会的终结?正是满怀恐惧与迷茫,2018年4月4日全球50多名人工智能专家宣布,将联合抵制与韩国科学技术院的任何合作,直至该机构宣布不会研发任何缺乏人类控制的自主武器。而在此前,谷歌已有超3000名员工签名呼吁谷歌及其合约商不要发展战争科技,要求谷歌退出五角大楼旨在开发军事机器人的“梅文计划”。2018年4月9日,联合国《特定常规武器公约》政府专家小组会议如期在日内瓦召开,致命性自主武器系统的潜在影响和破坏力再次成为全球瞩目焦点。


致命杀戮的去人类中心化

当下,致命性自主武器的发展已成全球性热点话题,它所引发的核心忧虑是:致命决策的去人类中心化,即将人的生命权交由智能机器裁决是否适当?如果任由这一态势发展下去,人类个体会不会随意为智能机器所猎杀?简单来说,“致命自主武器系统”(Lethal Autonomous Weapons Systems)又称“自主机器人杀手”(lethal autonomous robots, LARs),是一种能够在无人干预情况下独立搜索、识别并攻击目标的新式武器。与传统常规武器不同,致命性自主武器拥有良好的环境感知能力和复杂学习适应能力,一经启动即可排除人类的介入自行选择目标并予以毁灭。目前,全球约有数十个国家正在筹划研发自主武器系统或类似军事机器人,譬如印度国防部长阿吉库马尔(Ajay Kumar)最近宣布,印度将寻求借助人工智能的帮助开发武器级防御和监视系统,且已成立一个由17人组成的精英专家小组,正在为印度武装部队制定人工智能路线图。在这些致力于发展自主武器系统的国家看来:

第一,自主武器相比人类战士能够在复杂环境下更敏捷、更稳定决策,尤其是机器并不具有人类情感、情绪和政治立场,其决策基本不受恐惧、愤怒和疲倦之影响,从而可以代替人类士兵执行侦测、排雷、进攻和人员拯救任务,并最终使得己方士兵生命损失和附带平民伤害降到最低。除此以外,人类并不比机器更理性,由人类控制武器并由人类决策所带来的武装冲突并不比机器智能决策少。只要致命性自主武器所造成的附带损害,相较于人类决策所带来的伤害更少,则致命性自主武器的研发、部署和使用就是合乎道德的。

第二,自主武器在提高军事打击精度和加快反应速度的同时,并不违反国际人道主义精神和相关法律规定。有专家认为,人类社会只要尚未终止暴力冲突,政客集团就会难以抵御更高效杀人武器的诱惑。当前,在允许的特定环境中致命性自主武器不仅已经被部署,而且业已被启用。这些特定的作战环境包括:在海上识别并攻击远离商业航线的敌方舰队、在沙漠无人区侦测并自动击毁地方坦克编队、在天空和外太空感知非民用飞行器并开启自动防御、在水下探寻敌方潜航器并发射深水炸弹等。此种情形下,致命性自主武器的发展主要致力于在无人地区瞄准军事目标,并不违反国际人道主义法所规定的区分原则,即作战行动要严格区分平民和作战者、平民目标与军事目标。

当然,也有观点认为,自主武器的出现对人的生命保护提出了意义深远的关切。

首先,机器自主杀人难以问责。大多数武器专家认为,现行国际人道主义法和人权法规定,只有人类行为体才具有法律主体资格承受权利和责任,致命性自主武器终究只是武器而不是人,因而不具有法律主体资格,也就无法对其行为承担法律责任。鉴于设计上始终难以排除的“系统性错误”和使用上的“不当激活”之可能,致命性自主武器系统随时有伤害和杀戮无辜平民之风险。

其次,致命决策去人类中心化。美国国防部前副部长米勒认为,未来战场的高科技竞争很可能会使机器最终取代人类而成为生杀予夺的决策中心。这种致命决策权的转移或将意味着人类开始被排除在决策之外,传统战争人与人之间的智力比拼或将让位于机器与机器之间的算法对决。就此而言,该不该让人工智能系统决定人的生死,越来越成为机器人可能攻击人类并灭亡人类的恐怖传说。

再次,武器有失控并反伤人类之风险。由于自主武器系统开发成本低廉且易于扩散和传播,该武器系统的使用不仅会降低国家开战的门槛,而且还会带来武装冲突的永久化,并有可能为犯罪组织、黑客团体或私人武装所截获,进而成为暴力镇压和伤害平民的工具。一旦致命性自主武器系统被制造出来,其学习能力可以使其迅速逃脱其创造者的控制和监督,并对周围一切人和物构成威胁。更遑论该系统所与生俱有的联网效应,届时全球都有可能处于由机器智能决策所引发的伤害恐惧之下。


平民生命权的尊重与安全保护

现代国际人道主义法规定,所有平民,无论是在战争还是在和平时期,都应免于恐惧和被伤害。能否在自主杀人行动中坚持保护平民义务,遂成为自主武器研发和部署所面临的道德责任。一般来说,“平民安全”指的是非武装和非战斗人员以及无辜平民的生命安全,确保人人都有安全活着、不受伤害且免于恐惧的是平民生命权的基本内涵。但就目前技术水平而言,人工智能充其量只能识别雷达信号、热成像和特定感应器数据,致命性自主武器系统尚不具备准确区分战斗人员和非战斗人员、军事目标与民用目标的能力,至少相较于人类战士的直觉判断还有相当长一段距离。在此情形下,如果先进的自主武器有一天被部署,可能有损基本人权;即便是自主武器系统能够“优化”杀戮选择并降低平民伤害,但其决策也未必符合和满足人类社会的道德要求。

考虑人工智能对人类社会致命决策的日渐侵蚀,最近有科学家联名呼吁应设立一项人工智能禁令,“禁止研发超越人类有效控制范围的进攻性自主武器”,但这一禁令倡议却排除了“所有目标均由人类决定的巡航导弹或遥控驾驶无人机”。显而易见,这一倡议所关心的并不是平民安全是否能够得以确保,而是聚焦于屠戮行为究竟是由人做出的还是由机器所决定的。在某种意义上,该禁令倡议并不禁止人与人之间的乱屠滥杀,不论受伤害对象是士兵还是平民、成人还是儿童,它所在意的只是屠戮目标是否由人所决定且武器控制权是否始终归属于人的掌控之下。故而,在这部分人工智能专家看来,生命权取决于使用致命武力的控制主体和授权主体是谁,如果致命决策是由人所做出的,“保持有意义的人类控制”可以成为自主武器发展的一个法律依据;反之,任何致命决策脱离人类的控制或不以人类意志为转移,本身就是对生命权和公平审判权的侵犯,则应严令禁止和拒绝。


监管和约束致命性自主武器

联合国法外处决特别报告员克里斯托夫·海恩斯(Christof Heyns)认为:“目前没有国家正在使用可以被归类为‘自主机器人杀手’的、能够完全‘自主操控’的智能武器,但是相关技术已经存在,或者说很快就能成熟使用。尽管一些在该领域极为活跃的国家已经承诺不会在可预见的未来使用此类机器人,但非常强大的力量、包括科技和预算,却在朝着相反的方向将其向前推进。” 海恩斯指出,尽管有能力生产自主机器人杀手的政府表示目前不会考虑在武装冲突或其它场合使用这一系统,但人们不应当忘记,飞机和无人机最初在武装冲突期间使用时也只是用于侦察目的,不考虑为进攻性目的使用。后来的经验表明,一旦相关技术日臻完善,最初的考虑和保证往往被抛掷脑后。

有鉴于此,2013年4月人权观察组织联合50多个非政府组织组成“阻止杀手机器人禁令运动组织”(Campaign to Stop Killer Robots),呼吁应设立禁令完全禁止自主武器的研发、交易、部署和使用。人权观察组织认为,由于全自主武器不具有人类情感和道德意识,从而也不会对被害者感到同情,很容易被独裁者利用来对付自己的人民;除此以外,国际人道法要求战斗中需要明确区分战斗员和平民,保证平民免受攻击和伤害,但完全自主武器不仅难以做到这一点而且难以追责,甚至更易导致战争和附带平民伤害。2015年7月一封由物理学家斯蒂芬·霍金和苹果公司联合创始人史蒂夫·沃兹尼亚克领衔、约2万人签名的公开信,也要求停止研发具有自主杀人能力的智能武器系统。对此,“阻止杀手机器人禁令运动组织”的发起人史蒂夫·古斯指出,“一旦这些武器被研发出来,我们就无力阻止了。我们必须趁现在发布禁令,才能先发制人。”

但反对意见也异常鲜明,认为全面禁止自主武器无助于阻止其开发,理由如下:其一,致命性自主武器系统研发成本低、易于制造,“只需少量资金和几周时间,就能从零开始制作出一个可移动的、能对任何移动物体进行自主跟踪和开火的机器人” ,目前并没有办法可以杜绝人们制造并获取此类自主武器。其二,禁止自主武器的研发无异于鼓励人们设立地下实验室和进行黑市交易,针对此类武器的控制和有关开发实体的问责更无法实现。其三,任何禁止致命性自主武器的禁令提议,都必须考虑非国家、跨国行为体实施的非常规、非对称和非典型战争,以及此类冲突对平民的影响。非国家行为体所发动的恐怖袭击之所以能蓬勃发展,往往正是因为自主武器无法在当地平民人口中将其辨认出来。其四,人工智能在很多方面具有军民两用性质,其益处不应与其害处被一并抛弃,有关人工智能自主技术应杜绝其武器化,允许对其加以有益的利用。

有鉴于完全自主武器会带来巨大的道德、法律和责任风险,而禁止又是不可能的,建立一个有效的制度体系、实施国际监管来限制和规范自主武器的发展似乎更为可取。人工智能应用于改善社会生活,而不是用来伤害生命;国际社会应通力合作、构建严格的操作规程来指导和限制自主武器的研发,同时通过国际人道主义法来严格约束此类武器的部署和使用,对有违国际人道主义精神研发和部署此类武器的组织实体进行问责和追责。但监管并不等于禁止整个自主技术发展,而是要在限制自主武器的附带平民伤害,与促进自主技术的有益发展之间找寻平衡点,以免矫枉过正。总体而言,监管体系的最终目的在于,自主武器的发展促进而非有损于平民安全。(编辑:侯洁如)