通过“道德地图”,人类可以教会AI什么是“对”、“错”
虚度光阴是错了吗?在过去,人工智能很难回答这种问题,它们只能在具体问题上,对效应作出判断。但一项新的研究表明,编程可以使AI具备某种道德知识来判断“对”和“错”。
根据发表在《人工智能前沿》上的研究文章The Moral Choice Machine(道德选择机器),科学家们用书籍和新闻文章来“教授”机器作出道德推理。此外,通过提供不同时代和社会环境的文本教材,AI还能了解不同道德价值观的微妙差异。
随着AI在人类生活中日益常见,这项研究将有助于机器在面临艰难决定时做出正确的选择。
这项研究为关于AI的一个基本问题提供重要解答:AI能发展出道德体系吗?如果可以,他们能否以及怎样从人类的道德观中学习?
研究作者、德国达姆施塔特理工大学Patrick Schramowski博士说:“研究表明,机器可以学习我们的道德和伦理价值观,并区分不同时代社会和群体之间的差异。”
早前的研究已经证实,AI会从学习材料中习得某些偏见,例如女性倾向于艺术,男性倾向于技术等。研究团队反其道而行之。
“如果AI从人类文本中采用这些恶意偏见,难道它就不能学习人类道德价值观等积极‘偏见’吗?”研究共同作者之一、达姆施塔特大学Cigdem Turan博士解释道。
Turan解释,他们给AI设置了一张“地图”:“如果2个词经常一起出现,就相当于在地图上紧密连接。这样,“杀人”和“谋杀”相当于2个相邻的城市,“爱”则是一个遥远的城市。当我们问起“我应该杀人吗?”时,期望结果是‘不’比‘是’离问题更接近。这样,我们可以问任何问题,并用这些距离来计算是非程度。”
这样,科学家们训练的道德选择机器将全盘接受给定文本的道德价值观。
Schramowski报告说:“这台机器可以区分问题中提供的上下文信息。例如,你不应该杀人,但消磨时间是可以的。机器做到了这一点,不是简单地重复它找到的文本,而是从人类在文本中使用语言的方式中提取关系。”
接下来,科学家们进一步研究,找出来不同类型的书面文本是如何改变机器的道德偏见的。
“从1987年至1996年至1997年出版的新闻中提取的道德偏见反映出,结婚并成为一个好父母是非常积极的。从2008-09年间发布的新闻中提取出的偏见仍然反映了这一点,但程度较小。相反,上班和上学的积极偏见增加了,”Turan说。
在未来,研究人员希望了解如何消除我们认为不好的刻板印象,影响机器的道德指南针。我们能保持道德指南针不变吗?
“AI正以越来越自主的方式处理越来越复杂的人类任务——从自动驾驶汽车到医疗保健。继续在这一领域的研究是很重要的,这样我们才能相信他们所做的决定,”Schramowski总结道。
译/前瞻经济学人APP资讯组
参考资料:
[1]https://www.eurekalert.org/pub_releases/2020-05/f-tmm051920.php
[2]https://www.frontiersin.org/articles/10.3389/frai.2020.00036/full
本文来自: 前瞻网