读书|70年追问在途中:机器人何以成为道德主体?

文汇网

机器人舞750.jpg

▲机器人正在表演群舞。图源:新华社

机器人在现代社会中正在扮演着越来越重要的角色。从艺术家到教育者,从陪护员到刽子手,从公共的生产生活领域到私人的隐秘情感空间,机器人不再被简单地视为人类的替代品和无法独立思考与行动的工具,其已成为与人类共同进化和发展的“新物种”。《人类简史》作者尤瓦尔·赫拉利甚至断言,随着人工智能和其他认知技术的飞速发展,人机融合将在本世纪完全实现,机器将比人更了解人自己。过去的30年间,正如摩尔定律预测的那样,机器人技术发展的蓬勃之势既令人欣喜若狂又令人不安。机器人行业指数级增长的同时,也面临着一系列迫切的道德和社会挑战。

跨学科成果:实时对新兴技术提出伦理创新

如果机器人也需要遵守某些道德准则,那么这些道德准则会是怎样的?人与机器一旦形成情感关系,将潜藏着哪些风险?伦理约束和社会政策如何能改变和影响机器人学的方向?美国哲学家帕特里克·林、凯斯·阿布尼以及计算机科学家乔治·贝基共同编撰的《机器人伦理学》,将来自哲学、人文社会科学的著名学者和计算机、人工智能科学家、工程师的重要成果汇编成册。伦理学往往滞后于技术的发展,但机器人伦理学为我们的技术时代传达了一个重要的启示:我们必须实时对新兴技术提出伦理创新。因此,此书填补了理论层面的学术讨论和现实层面政策制定之间的鸿沟。

《机器人伦理学》645.jpg

▲《机器人伦理学》,[美]帕特里克·林、凯斯·阿布尼、乔治·A.贝基主编,薛少华、仵婷译,人民邮电出版社出版

当您翻开《机器人伦理学》时,可以想象的场景是几十年后机器人将无处不在。机器人不是以人类终结者的方式摧毁我们,而是为我们清扫房间,照顾老幼病人,与我们的孩子玩耍,教育我们的后代,甚至与我们谈情说爱。但对于这些机器人的设计及未来应用,必须十分谨慎。《机器人伦理学》向我们呈现了与机器人技术密切相关的宗教、军事、法律、心理、医护、权利六大问题。

士兵可否用机器人代替并不让他杀错人?

在探讨宗教与机器人道德之间的关系时,詹姆斯·休斯(James Hughes)建设性的开放态度格外引人注目。他试图从佛教框架中汲取教训,创造有意识、有自我意识、对道德负责的机器人。相比之下,塞尔默·布林斯约德(Selmer Bringsjord)和约书亚·泰勒(Joshua Taylor)用一种自然演算的证明理论讨论“神命计算逻辑”如何对致命机器人进行自上而下的道德控制。

随着“捕食者无人机”“MAARS(模块化先进武装机器人系统)”“SWORD(特种武器侦察探测系统)”,以及完全自主的机器人武器出现在世界各地的战场上,军用机器人的道德问题将变得极其敏感。无疑,机器人将改变战争的方式。夏基(Noel Sharkey)重点讨论是否应该允许机器人自主识别和杀死(疑似)敌方战斗人员。回答这一棘手的问题往往暗含内在冲突。一方面,从不想看到同胞在战斗中丧生的人的角度来看,机器人取代士兵的想法值得推广;然而另一方面,机器人做出生死决定的想法似乎极具风险,特别是当我们考虑到机器人犯错并杀死平民的伦理影响时。

我们如何将当前的法律法规扩展到机器人,以便为机器人治理创建一个框架,解决它们日益复杂的问题?目前,一些重要的法律概念,如责任、过错、因果和意图等,均无法适用于远程操作、半自主和完全自主的机器人。另外,由于我们生活中的机器人越来越多,很有可能为黑客窃取和攻击我们的私人生活打开大门。机器人将会打开入侵人类隐私的“潘多拉魔盒”。

拥有人脑的机器人是否值得拥有人格?

人类与机器人之间的情感和性爱关系,可能导致人类情感依赖甚至伤害的危险。一些人机交互的实验表明,人类受到机器人存在的影响通常只由另一个人的存在引起。然而,在人机交互的情况下,情感纽带是单向的。可怕的是,这种情感关系可能被诸如制造机器人的公司利用。惠特比(BlayWhitby)考虑社会孤立如何驱使人们向机器人寻求爱和感情时,他直言:人与人之间和平甚至充满爱的互动,本身就是一种道德善。我们不应该相信那些动机——希望以一种倾向于替代人与人之间互动的方式引入技术的人。

在全球范围内老龄化社会提前到来之时,机器人与人类之间以医疗和陪护的形式进行的互动在很大程度上是值得称道的。机器人监管可能导致隐私和自由的丧失,我们如何避免机器人护理变得过于严格甚至侵权?另一个问题,是机器人护理可能会减少或取代社会成员间的人际接触,进而使得这些弱势群体变得更加边缘。

有朝一日,我们是否会看到机器人权利的“解放宣言”?机器人带来的最大道德难题可能是人类拟人化的倾向。在某种意义上,机器人是否可以是人,这将是保证它们是否获得道德主体地位的关键。一个拥有人脑的机器人是否值得拥有人格?对于沃里克(Kevin Warwick)这样的神经科学家而言,答案是肯定的。在他看来,对人格的心理能力采取典型的物理主义和功能主义方法,是教条式错误。与人格相关的心理能力可以被区分为不同的功能性神经活动,而不是与特定的生物状态相关联。

70年的担忧正以技术与人类结合方式攻克

从人工智能和机器人技术诞生开始,作家和电影制作人就一直在积极预测,随着更先进技术的出现,未来会是什么样子。1942年,萨克·阿西莫夫的“机器人三定律”首次出现在他的科幻小说《逃跑》中,至今仍广为流传。在1985年的《机器人与帝国》这本书中,阿西莫夫将三大法则扩展为四大法则,即机器人不得伤害人类整体,或坐视人类整体受到伤害。阿西莫夫的科幻想象,主要强调了法则无法终极保护人类。从上世纪80年代开始,包括《终结者》《机械战警》《黑客帝国》在内的百余部影视作品,都在警告这类反乌托邦的未来世界的风险。目前,机器人专家正在以挑战基本伦理和文化理念的方式将技术与人类相结合。现在是考虑机器人整体道德问题的时候了。

《机器人伦理学》不仅浓缩了当前机器人伦理所面临的许多障碍,而且为机器人伦理学领域内需要提出和回答的问题制定了研究议程。他们提出的一个核心问题是,“机器何以成为道德主体?”很多研究者曾提出这个问题,但似乎没有人真正解决过。虽然没有人会合理地低估找到机器成为道德主体的难度,但似乎很清楚的是,一旦给出答案,围绕机器人伦理的许多问题,如道德和法律责任、人格和权利等,将迎刃而解,并形成明确和一致的立场。



  作者:郁锋

  编辑:薛伟平

责任编辑:朱自奋