您做在的位置: 中国投资 > 董青岭:人工智能时代的机器伦理

董青岭:人工智能时代的机器伦理


随着数以百万计的工作岗位被淘汰,无处不在的隐私泄露,以及致命性自主武器系统的出现,人工智能风险已经被嵌入到当下和未来所有算法和系统当中


文|董青岭  对外经济贸易大学国际关系学院教授  大数据国际关系研究中心执行主任



● 算法偏见: 以正义之名歧视和杀戮

● 道义责任:将社会规范植入人工智能


当前,人类社会正在步入一个以数据驱动、人机共存为主导特征的崭新时代。2017年,新一代人工智能Alpha Go不仅横扫一切世界围棋冠军、令人类智慧倍感沮丧,而且Alpha Zero通过短短几天无师自通的自我学习就战胜了Alpha Go之前所有的版本,这意味着人工智能越来越趋近于获取“自我意识”,也许用不了多久人工智能将在各个方面反超人类智慧,届时将会有越来越多的机器人或智能程序充当人类助手,帮助人们完成那些高重复性、高复杂性和高危险性的任务。但斯蒂芬·霍金却对此一直持有异议:“我不认为人工智能的进步一定会是良性的。一旦机器到达能够自我进化的临界阶段,我们就无法预测它们的目标是否与我们的一致,人工智能有可能比人类进化的更快⋯⋯一旦脱离人类的管束,人工智能就会以不断加速的状态重新设计自身,而人类却受制于漫长的的生物进化,无法与其竞争,或将最终被取代。”尽管人们目前尚不清楚人工智能超越人类智慧的“奇点”时刻会在何时到来,但漠视或刻意忽视人工智能的潜在安全隐患,显而易见是极其危险的。

 

算法偏见: 以正义之名歧视和杀戮

通常,人们普遍认为计算机程序基于客观运算是公正无私并富有效率的,但2016年5月1日刷爆中国朋友圈的一篇文章,却改变了人们对于程序算法正义性的一贯认知,并将程序算法置于公众的道德审判之下。故事的起因源自一名叫魏则西的大学生在2年前体检出患滑膜肉瘤晚期,他通过百度搜索找到武警北京总队第二医院,花费将近20万元医药费后仍不治身亡,由此引发公众对百度竞价排名算法的社会伦理问责。而在此之前的2016年3月25日,另一搜索巨头微软也被迫从Twitter下线了其AI聊天机器人Tay,原因也主要是由于其算法程序的学习偏见,Tay因为在线用户的恶作剧而学习发出种族主义、性别歧视和仇外言论。除此以外,2016年全球最大在线求职公司LinkedIn也被爆出其网站搜索算法上存在性别歧视,当输入女性求职者姓名时会跳出男性求职者推荐。凡此种种,通过机器学习,社会偏见和固有歧视被重新包装打扮成客观算法,以更加隐蔽的方式让一部分人在智能化名义下受益、同时让另一部分人利益受损。在这方面,最为典型的案例莫过于2010年美国伊利诺伊州实施的教师绩效评估算法,结果引发芝加哥教师的广泛反对乃至游行抗议。

然而,算法作恶并不仅限于此,其最令人无法容忍之处并不在于放大或植入新的社会偏见,进一步加剧社会种族隔离、教育歧视和就业不公平,而在于有些算法甚至直接漠视生命、践踏人类尊严,目前争议最大的莫过于基于机器学习技术的自主武器系统,又称“致命性杀人机器”(Lethal Killing Robots)。美国自2001年起便开始在阿富汗、巴基斯坦和中东各地部署这些被称为“智能反恐武器”的杀人无人机,但根据美国新闻调查局的数据,从2002年到2012年,美军在上述地区的无人行动至少已导致1055人死亡,其中163名平民被误杀,误伤率超过15%,仅2011年一年美国在巴基斯坦就发动了约75次“无人机”空袭,造成52至152名平民死亡。假设美国在训练无人机识别恐怖分子时以50万人为训练样本,训练识别准确率为99.9999%,那么即使是只有0.0001%的识别误差,可放大到500万人口规模中也会造成500名无辜人员被误杀、放大到5000万人口规模就会有5000名无辜人员失去生命。这在目前的国际法体系下上,人类的道德观念是绝对无法接收的。

也正因如此, 2016年5月,欧盟法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议》的报告草案,探讨如何从立法角度避免机器人对人类的伤害;2017年8月21日,包括特斯拉CEO埃隆·马斯克(Elon Musck)和谷歌DeepMind联合创始人穆斯塔法·苏莱曼(Mustafa Suleyman)在内的116名机器人学家和人工智能研究人员共同致信联合国,认为发展致命性自主武器系统是不明智、不道德的,呼吁应该在全世界被禁止;2017年11月13-17日,联合国在日内瓦召开特定武器公约会议,以德国和匈牙利为代表的欧洲国家强烈要求禁止致命性自主武器系统的研发和部署,并认为杀人机器人不仅会引发新一轮军备竞赛,更将颠覆人类现存的信仰体系和价值理念,人的尊严不应屈从于技术的统治。


道义责任:将社会规范植入人工智能

毋庸置疑,人工智能已经无处不在,下一代人工智能将会获得越来越多的自主性,越来越趋近于人的自我学习和自我进化能力,而未来人类社会的生存也将越来越取决于能否通过编程让人工智能处于可控范围之内,做出符合人类社会规范的道德决策。坦率的讲,目前的人工智能仍是人造机械产物而非具有独立智慧的自主行为体,在多数情况所谓的“人工智能”仍处于人工智能的初级阶段,仍然只能按照人的预设规则和指令行事,对于那些程式化和重复性工作足够聪明但却严重缺乏责任意识,在法律人格上因无法独立思考而不具备主观行为能力,充其量只能算作是人类的附属品,因而一旦无人驾驶程序或自主武器系统做出错误伤害行为,人工智能的所有者、使用者和指令发号者应负连带责任。伦敦帝国理工学院认知机器人学教授、谷歌DeepMind高级研究员穆雷·沙纳汗(Murray Shanahan)表示,“到了现在,我们应该对我们创造的一些机器负起责任,就像我们要对那些伟大的艺术作品负责。”但是,没有人能够保证未来人工智能的发展不会演化出类人智慧和类人情感,届时机器或将习得人类社会规范并将基于自我道德判断而行事,由此取得与人类同等或拟人化的法律人格。

当然,以目前技术进展来看,道德不是按照算法规则定义的,由机器所做的决定均可追溯到由人提出的要求,人工智能离具有自主行为能力、独立承担社会行为后果相距甚远,当前由人工智能所引发的伦理困境主要集中以下两方面:

第一,选择正义,即人工智能作为人类助手在遭遇两难选择时如何进行道德抉择问题。一个典型的应用场景是:当无人驾驶汽车在遭遇危险路况时,是选择优先保护车内乘客安全还是优先保护路边行人安全。如果优先保护车内乘客,则路边行人就会成为无辜受害者;如果优先保护路边行人,则车内行人随时有可能被自己购买的人工智能杀人殒命,无人驾驶程序就会失去存在意义。显而易见,在真实社会场景中,这不是一个通过简单植入预设程序就可以解决的道德困境,即使是对于人本身而言,也需要根据具体的周边环境和社会规范进行相机抉择。延伸到军事领域,如果机器想要具备伦理观念,它必须有能力识别一项请求是否是合乎道德,如果是一个训练有素的士兵接到指令去攻击一个中立的平民村庄,他通常可以识别并拒绝非法命令;但对于自主武器系统而言,它只能判断攻击与否却无从考虑攻击背后的政治立场、冲突原由与正义与否。在某种意义上,人工智能无论是扮演拯救还是伤害者角色,都是游离于社会规范之外的,它更多体现的是一种工具属性,而非具有独立意识和道德立场的理性决策者。

第二,结果正义,即人工智能作为类人施动者会不会像人一样考虑其行为的社会后果。通常意义上,人除了具有成本-收益的功利算计之外,通常还会服从其身处其中的社会规范之约束;一旦察觉到自己的行为会给他人或社会带来危害或甚远影响,人通常会在功利算计与社会理性之间进行平衡或取舍。但人工智能目前作为人类编程产物,尚无社会规范意识,其行为抉择一般只服膺于逻辑规则而不是道德判断,以至于一个金融机器人在选择是否放贷时只会考虑贷款人的资产状况和还贷能力,而不会考虑贷款人是否有无真的需要,更不会考虑由于扶持一部分人的同时歧视另外一群人所带来的社会贫富分化。总体而言,道德判断缺位状态下的人工智能不会考虑行为的后果,同时更不会考虑由于这些行为后果所产生的社会非正义性。换言之,在没有或无法植入社会正义理念的情景下,人工智能只不过是用技术外衣重新包装了社会的固有偏见,有可能会塑造社会新的阴暗面,如果不加以约束和监督,势必会给人类社会带来持久伤害。


⬆2017年12月4日,在浙江乌镇举行的第四届世界互联网大会“互联网之光”博览会上,民众体验人工智能机器人


总体而言,随着数以百万计的工作岗位被淘汰,无处不在的隐私泄露,以及致命性自主武器系统的出现,人工智能风险已经被嵌入到当下和未来所有算法和系统当中,推动人工智能把道德和责任设计提高优先等级是未来人类社会安全的保障,来自各个领域的科学家们不仅要深思人工智能在社会进程中究竟应该扮演什么角色,更需尝试发现植根于机器学习算法中的种族主义、性别歧视和种种社会不公平,借助伦理约束使人工智能造福人类社会。(编辑:杨海霞)