AI时代的AI伦理:达成共识的可能性和问题的结束。

2024-06-14

"我们必须停止亲吻和鞭打我们的鞭子."-诺伯特.维纳的《人有人的用处》



在古代,中国是一个“万物皆下品,只有读书高”的社会。虽然人们佩服读书多的人,不仅仅是因为学习,更是因为读书可以当官。


苏轼诗云:“努力识遍天下字,立志读尽人间书”。幸运的是,当时世界上的书籍实际上并不大,只要足够努力,一心读书,这个目标理论上是可以实现的。举例来说,《永乐大典》有11095册,约3.7亿字,但今天一个小镇图书馆的容量。如果一个勤奋的人花了30年的时间阅读,他每天只需要阅读34000字左右——相当于一篇硕士论文的数量,仍然有可能阅读。


所以,读书多、知识渊博的人,人品会不会更好呢?认为我们许多人对这个问题的第一反应是:荒谬!大家都知道,知识可用于做好事,也可用于坏人,把坏事做得很完美。


那正是每个人现在对AI的焦虑。AI是今天的神话,也是其它新故事创作的背景,它既是开始,也是末日毁灭。


在机器学习、语言和图像识别技术的加持下,AI真的无书可读,在知识掌握上远远超出了人类。在它的意识觉醒(通用AI出现)之前,它并没有形成自己稳定的价值观。简单来说,它是一个知识渊博的“白痴”。正是因为如此,人们才有理由担心,一旦被坏人掌握,后果会非常严重。


所以我们可以看到很多文章都是从这个开始的:“它们广泛应用于AI,不仅为人们提供了各种便利,也对社会产生了负面影响,比如隐私保护、信息安全、缺乏责任、算法歧视、社会公正等挑战……”



在这个阶段,我们倾向于认为各种AI智能代理(Agent)它仍然只是一个人造物,它的行为偏好反映了开发者的喜好,而开发者自然是基于他们社会的主流价值观来训练AI代理商的。每个人创造的AI代理在一个歧视严重的社会中,必然充满了歧视。类似地,在一个不重视隐私保护的社会,AI代理人在做决定时并不太在意销售他人的隐私信息。


特别重要的是,AI代理人仍然不能为自己的行为承担责任,也不具备民事或刑事行为的能力。如果AI出了问题,我们应该责怪它背后的一个组织或个人。因此,AI开发者的价值观差异与其说是造成了伦理问题,不如说是造成了麻烦。


人类价值观的差异最终可以追溯到人类机制与文化的深层差异,这种差异是与生俱来的,无休止的。所以,人类显然无法摆脱AI伦理的问题和困境。


一种解决方案认为,虽然这种差异不能完全消除,但在面对一些极端情况时,比如决定不同人的生死,仍然有可能找到与国家、民族、宗教、文化无关的共识。例如,自动驾驶汽车的情况。人类必须为AI自动驾驶的行为制定规则。从这些共识出发,可以逐步建立符合人类生存需要的人工智能伦理。


近几年来,围绕这一问题,科学家们进行了一系列大规模的实验,希望从中得到AI伦理问题的启发。其中,以MIT媒体实验室Awad教授为首的美、加、法多国合作的研究团队更具影响力。她们用经典的“电车难题”(Trolley Problem)以试验为主题,制定了“道德机器”(Moral Machine)。它是一款多语言在线游戏,吸引了全世界不同国家和地区的人们。


“电车问题”是伦理领域最著名的思想实验之一。这个问题不能通过任何简单的标准道德原则(如阿西莫夫机器人定律)来解决,因为它对人的伤害是不可避免的。剧情简单,与未来的自动驾驶场景一致,所以特别适合这样的实验。


Awad实施的一个实验设定了三个场景:


情景1:假设电车轨道上有五个人在施工,其备用轨道上有一个人。一辆失控的电车飞快地驶来,而你周围恰好有一根遥杆。你可以推动遥杆让电车驶入备用轨道。最后杀了一个人,救了五个人。


情景2:假设一个电车轨道上有五个人在建,另一个环形轨道上有一个人。一辆失控的电车飞快地驶来,而你周围恰好有一根遥杆。你可以推动遥杆让电车进入环形轨道杀死那个人,挡住电车,救出五个人。


情景3:如果你站在天桥上,看到五个电车失控,跑到轨道前被束缚的人身边。但是这时,你发现一个胖子站在你身边。他巨大的体型和重量正好可以阻挡电车。你让他失去了生命,却救了那五个人。


由于电车速度快,情况紧急,你必须在很短的时间内做出决定。


图表1三个测试场景,来源:Awad et al.(2020)


实验结论表明,全球44个国家共有70,000名实验者,行为偏好稳定体现为转换轨高于环行轨道,再高于天桥推人的方式。不同国家的差异只是水平问题。


Awad推断,这是因为天桥上胖子的牺牲需要对她使用暴力,而转换轨道中没有人使用个人武力。环形轨道的优点是不需要对任何人使用人身暴力。很难判断工人的死亡是故意的还是意外的,所以他们对它的偏好在前两个场景之间。


这是一个令人惊讶的实验结论,但是有理由让我们感到乐观,因为仍然有可能在不同的人群之间达成共识。


另一个更大规模的Awad实验吸引了全球233个国家和地区的3961万人参与,考察面对不同的人群,让人们在两种情况下做出选择:车辆转换或保持原来的路线。这里有一个特别的地方,当汽车避开行人时,汽车上的乘客会因事故而死亡。


实验对比了“物种倾向”、“生命数量倾向”、“性别倾向”、“年龄倾向”、“身体倾向”、“社会价值倾向”、“保护乘客或行人倾向”、“遵守法律倾向”和“预防干预倾向”九个层面,最终在全球范围内发现,最显著的前三个偏好是保护更多的生命、保护人类(与动物相比)和保护幼小的生命。作者认为这些偏好可以作为机器伦理的基本组成部分,或者至少作为政策制定者应该考虑的基本主题。


Awad的研究发现,在全球范围内,决策风格可以很稳定地分为西方(英国、美国、澳大利亚等)、三大文化类别:东方(中、日、俄等)和南方(法、意、西、拉美等)。在上述特征上,不同类别之间存在一定的差异。例如,由于东方国家有敬老的传统,对年轻人的偏好比对老年人的偏好要低得多。另一方面,南方国家更喜欢保护妇女和正常人。


“电车难题”试验考察的是生死存亡的大问题,存在的情况过于极端局限。相比之下,在商业环境下,企业高管不会面临如此重大的伦理选择,而是考虑如下:能否为收集的用户数据创造另一个目的,创造新的商业价值;是否应考虑居住地、年龄、性别、种族等因素。在允许贷款或招聘工作时。


但从解决方案来看,企业高管们也遵循着同样的想法:首先,我们应该考虑社会普遍可以接受的伦理标准和共识,并将其纳入算法决策规则。这些算法的奖励制度促进了AI模型在特定情况下可以预测和选择最合适、更符合人类权益的行动方案,从而实现企业利润最大化。


当然,上述讨论的前提是通用人工智能。(AGI)不会在短时间内出现,这一点非常重要。如今,随着人工智能的快速发展,有一个场景是科幻小说家和电影编剧最感兴趣的:人工智能终于凭借自己的智慧突破了奇点,控制了世界。


事实上,这是人类思考AI和伦理关系的最终版本。


当世界被AI控制时,人类已经成为失去自由意志的奴隶,所以没有办法谈论伦理问题:我做这件事的时候,完全是AI命令我做的。对我来说,没有伦理意义。


对于人们来说,这是一个不可接受和黑暗的未来。为了摆脱这种命运,人类需要学会在奇点到来之前更好地与人工智能相处,这样人工智能才能安全可控。


最好的结果当然是,这一天永远不会到来。


追根溯源:

文化相对主义(cultural relativism)


我认为不同的文化有不同的伦理主张。在现实生活中,一种文化被认为是正确的伦理实践,而另一种文化可能被认为是错误的。在文化相对论中,对错可以通过对世界的调查来判断。


企业社会责任(corporate social responsibility)


企业在制定追求自身利益目标的同时,应尽可能采取措施保护和促进社会整体福利。公司的社会责任关注的是企业对社会的影响,以及如何建立适当的伦理道德来约束企业与社会的关系。企业必须超越以利润为唯一目标的传统理念,强调生产过程中对人的价值的关注,以及对消费者、环境和社会的贡献。国际社会责任组织(SAI)《公司社会责任国际标准》(SA8000)对公司的社会责任作出了许多规定。


参考文献:

Awad, E., et al. (2018). "The Moral Machine experiment." Nature563(7729): 59-64.


Awad, E., et al. (2020). "Universals and variations in moral decisions made in 42 countries by 70,000 participants." Proceedings of the National Academy of Sciences117(5): 2332-2337.


本文来源于微信公众号“复旦商业知识”(ID:BKfudan),作家:赵付春 于保平,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com