人们潜意识里会把机器人当作同类?一套“AI道德准则”可能是必要的
随着科技发展,机器人已经逐渐进入了我们的生活。它们出现在很多地方:工厂里、家庭里,不仅可以在荒无人烟的地方工作,也可以在人流汹涌的公共场所为人类服务。
但人类将如何看待机器人、如何对待机器人,这类问题时常为人所忽视。
近日,北卡罗来纳州立大学的一项研究发现,人们可能会把工作场所的事故归咎于机器人,但前提是他们相信机器人是自主的。
该文章的作者、心理学教授道格·吉兰(Doug Gillan)表示,重要的是当工作中发生事故时,人们如何看待机器人。
为了探究这个问题,研究人员进行了一项研究,向164位受访者展示了几个工作场所的场景,在这些场景中,一个人类员工与一个机器人同时发生了事故。当被告知是人类在操作机器人时,受访者通常会将事故归咎于人类。当被告知机器人是自主的,而人类只是在监控它时,受访者通常会责怪机器人。
“这一发现多少有点直观,但它指出了一个基本问题:我们什么时候把犯错的责任从人类转移到机器人身上?”该研究中的北卡罗来纳大学(NC State)的心理学教授道格·吉兰(Doug Gillan)表示。
这项研究提出的这个问题发人深省。当人们“甩锅”给机器人的时候,他们内心深处是否认为机器人是一个能独立做出决定、有着自我意识的个体,与我们有着同样的智慧水平?
毕竟,人们在砸歪铁钉时并不会去责怪锤子,在切到手指时不会责怪水果刀,大多数人也不会责怪自家宠物猫狗打翻水杯、撕碎沙发。
人们确实会对机器人产生同情心
此前亦有另一项研究表明,人类其实可以与机器人“共情”。
荷兰内梅亨大学的Sari Nijssen和德国慕尼黑大学发展心理学教授Markus Paulus领导的研究小组开展了一项研究,以确定人们对机器人的关注程度,并如何根据道德原则对待它们。他们的发现发表在《社会认知》(Social Cognition)杂志上。
根据Sari Nijssen的说法,这项研究是为了回答以下问题:“在什么情况下,以及在何种程度上,成年人愿意牺牲机器人来拯救人类的生命?”
参与者面临着一个假设的道德困境:他们会为了拯救一群受伤的人而让一个人处于危险之中吗?在呈现的场景中,预期的牺牲受害者可能是一个人,或一个具有不同程度拟人化面貌的人形机器人,或是一个可以清晰识别为机器的机器人。
研究表明,机器人越人性化,参与者牺牲它的可能性就越小。在有些场景中,机器人被描绘成一个富有同情心的生物,或者是一个有自己感知、经历和想法的生物,这更有可能阻止受试者为了不知名人类的利益而牺牲它。
事实上,当被告知机器人所表现出的情感品质时,许多实验对象表示愿意牺牲受伤的人类来保护机器人免受伤害。
Paulus说:“机器人越像人类,尤其是越拥有人类的情感,我们的实验对象就越不愿意牺牲它。”
“这一结果表明,我们的研究小组赋予了机器人一定的道德地位。这一发现的一个可能含义是,试图使机器人人性化的尝试不应该走得太远。这样的努力可能会与它们的预期功能——帮助我们——发生冲突。”
就在不久之前,网上流传过一个波士顿动力公司发布的机器人被人类踢打的视频。该视频最后被发现是由CG合成的假视频,制作方也是Bosstown Dynamics而非真正的Boston Dynamics,但的确有不少观众看后表示为机器人感到难过,对折磨它的人感到愤怒。
“他们为什么要伤害那台可怜的机器?”许多人问道,“当然,它感觉不到任何东西,但这并不意味着他们可以那样对待它。”
这是完全可以理解的反应,尽管机器人没有意识,也感觉不到疼痛。
大量研究表明,让人类像对待人类一样对待机器人是一件容易得可笑的事情。如果他们要求我们不要拒绝,我们会觉得不好受;如果他们作为权威人物出现,我们会服从他们的命令;我们会对接触他们的敏感部位感到不舒服。
这并不奇怪。人类会对任何事物产生同理心,只要你把一张脸放在上面。正如麻省理工学院(MIT)研究员、机器人伦理学家凯特•达林(Kate Darling)所言:“从生物学角度来说,我们天生就会将意图和生命投射到我们物理空间中任何我们认为是自主的运动上。所以人们会像对待活人一样对待各种机器人。”
这在一方面可能是好处,比如能帮助老年人的护理机器人、作为伴侣的玩具机器狗等。但是有些公司却可能会利用我们的同理心,比如利用机器人吸引小孩子的注意,然后进行营销。
机器人的“道德准则”
但问题也就随之而来了:机器人值得同情吗?我们需要担心人们呼吁尊重机器人权利吗?
关于机器人可能的道德伦理问题,有些人只简单地把他们看作是人类的工具,只关注人类在使用机器人技术时对人类社会和环境的责任;有些人却把它们看作是潜在的人,或者人类的代理。
但务实地讲,机器人可能很快就会在工厂、公共场所和家庭中大量出现,它们可能会占据人类的角色,并做出各种决定。我们将不仅需要对机器人的动作进行外部控制,还需要开发机器人内部(自)导向系统。
我们不妨称这些系统为“道德准则”,并将机器人视为负有道德责任的动物。如果是这样,那么将“道德责任”植入机器人将不仅是可取的,而且是势在必行的。
此外,可以认为,人工智能的复杂性将不可避免地迅速增长。我们可能会越来越多地看到他们有自己的需求、兴趣和偏好,这样我们就会对他们有道德责任,就像机器人对我们有道德责任一样。
有些人认为,在可预见的技术范围内,机器人表现出的任何心智能力都是假的——机器人只是在模拟思维、智能、意识、自主决策或其他任何东西。
这里有两种观点:一种是保守的,认为机器人伦理是一种理论幻想;一种是激进,认为这是一种务实的需要。
至少在可预见的未来,机器人还不会离人类社会如此之近。尽管如此,我们仍有一项紧迫的技术和道德责任,必须设法确保机器人的行为充分接近道德上可接受的人类行为——也就是说,我们将需要为人工智能发展出一种特殊的道德准则,即关于它们如何对待我们和它们自己,以及我们如何对待它们。
本文来自: 前瞻网