AI伦理政策,也需要“全球化”

2024-11-19

制定正确的 AI 对组织来说,伦理政策尤为重要。如果在招聘算法或求职结果中存在性别偏见,一旦公布,可能会损害公司的声誉,使公司受到监管和审查,甚至导致高额政府罚款。在经历了这一威胁之后,越来越多的企业开始建立专门的结构和流程,积极地实施 AI 伦理。一些企业甚至更进一步,成立了 AI 伦理制度框架。


但是,许多努力都忽略了一个重要事实:在不同的文化环境中,道德观念是不同的。第一,一种文化中的是非观念可能根本无法转化为不同的文化背景。第二,即使在对错上达成一致,在道德伦理方面,不同文化之间也会有重要的差异。文化规范、宗教传统等都需要考虑。最终,AI 因此,不同地区的相关数据法规也不能保持一致,AI 伦理的合规性也会带来差异。各种因素都会影响到公司、客户和业务。


当前,全球新兴 AI 从西方角度来看,伦理标准主要是制定的。例如,“全球” AI 伦理指南目录"(AI Ethics Guidelines Global Inventory,AEGGA)这是一个数据库,汇集了报告、框架和建议,到目前为止。 2024 年 4 月亮,已收集 173 项目指南,并表示:“绝大多数 [ 指南 ] 来自欧洲和美国。“由此可见,AI 伦理标准并不像每个人想像的那样全球化。但是,许多企业只是简单地使用这些标准,并将其应用于世界各地。


西方角度也被隐晦地编码到了 AI 模型中。据估计,ImageNet 上只有不到 3% 这些图像代表了印度和中国的移民社区,但是这两个国家的人口总共占世界人口的三分之一。广义来说,缺乏高质量的数据可能会导致预测能力低下,对代表性不足的人产生偏见,甚至根本无法为某些人开发工具。举例来说,现在,大家还不能用网络上使用率不高的语言来训练大语言模型。(LLM)。最近,一个对印度的项目 IT 根据组织调查,缺乏高质量的数据仍然是阻碍 AI 伦理学实践的主要因素。


随着 AI 普及及其对业务经营的管理,不加节制地使用。 AI,与此同时,缺乏道德考虑,可能会损害企业及其客户的利益。


为了解决这一问题,公司需要制定一个有目的的全球 AI 伦理模型,优先与当地团队和利益相关者合作,并向当地团队发放决策权。如果公司的业务遍布很多地区,那就更重要了。


为 AI 增加伦理的内涵


许多企业都有能力重新建立一个全球化的、有目的的 AI 流程。这主要是因为他们还没有这样的过程——他们不需要拆除或重新设计内容,也不需要重新培训员工。与单一统一相比,已经推出。 AI 对于伦理制度的企业来说,这些企业反而处于更好的阶段。事实上,这些正在制定新政策的组织有很好的机会做好这件事。


根据我们的工作经验,以及来自不同地区的工作经验 AI 采访用户和开发者等利益相关者,我们发现,制定并实施合适的采访。 AI 伦理政策需要三个步骤。


第一,企业需要就各地区的驱动原则达成一致。在我们考虑的大多数案例中,全球领导团队负责这项工作:他们与来自世界各地的团队合作,共同制定、讨论和完善这些指导原则。


第二,需要在公司不同地区开设相关团队。如果公司在某个地区有重要的业务,或者计划在不久的将来在这个地区扩张,就需要在当地设立一个跨职能团队(至于如何建立这个团队,我们将在另一篇文章中讨论)。该团队将负责实施全球领导团队的制定 AI 伦理学框架,并且要得到相应的奖励——否则,组织可能会把更多的责任推给边缘团队。有些情况下,组织可能需要引进外部人员,尤其是在缺乏经验的地区。


最后,在R&D初期,全球领导团队需要与当地领导团队合作。 AI 伦理团队进行了一系列的对话。对话反馈建议应纳入公司整体情况。 AI 战略,然后传达给这些当地团队,授权他们根据自己的情况进行调整。这些调整也需要根据反馈与全球领导团队进行沟通和改进。


以惠普企业为公司(Hewlett Packard Enterprise,HPE)为例。在 HPE,首席合规官和 AI 研究实验室合作,同时从各工作部门和产品部门抽调代表,共同编写全球 AI 原则。由于团队具有区域多样性,这一原则所考虑的伦理因素更有可能适用于所有企业经营的区域。因此,HPE 合规团队创造了一个跨越全球的原则矩阵,整合了地区特定的法律法规和政府框架,确保 HPE 在当地视野下,全球原则仍然普遍存在。


持续让 AI 伦理更符合实际情况


刚开始的时候,我们还必须考虑到,最高管理层可能对各个地区的具体情况了解不够。所以,他们可能会与世界和 AI 不符合伦理标准的行为被视为错误的做法。举例来说,一个世界 AI 在检查员工工资算法时,伦理团队可能会规定,员工休假的次数不能纳入晋升标准。这种做法的动机是鼓励男女在必要时休育儿假和病假,同时也不必担心休假对职业生涯的影响。但是,在日本等国家,这种政策很可能会被修改。希拉里 · 霍尔布罗(Hilary Holbrow)一项突破性的研究发现,日本公司的员工认为这一政策是极其不公平的。在不投入大量资源获得多方认可的情况下,从文化角度来看,直接实施这一政策是不合适的。


这一例子表明,虽然在世界许多地区,为平等而制定政策是一种有益的改变,但是在世界许多地区, AI 在算法中,这种行为可能不会带来同样的积极反馈。然而,在一些组织中,当地利益相关者正在建立数据,以帮助组织更准确地了解当地环境。例如,加拿大原住民社区(Canadian First Nations communities)对于任何一个想要在该地区开展业务的组织来说,建立一个关于数据采集和使用的框架和培训课程是非常重要的。


持续参加 AI 伦理建设不仅可以提高全球领导对不同地区的理解,还可以让他们在某些情况下服从当地团队,但在其他前提下,他们可以凌驾于当地团队之上,从而使他们之间的关系达到微妙的平衡。HPE 自动化过程的建立就是一个例子。在启动涉及 AI 在新项目或招标过程中,他们的合规软件会自动安排团队成员和当地人员。 AI 治理小组召开会议。当地团队为对话提供背景信息,而全球团队则提供背景信息。 HPE 的原则和 AI 为治理框架提供更深层次的专业知识。随著时间的流逝, HPE 在内部建立了一套可以处理不同的设置。 AI “案例法”的道德问题。


HPE 面临的挑战是,全球管理团队无法预测当地的问题,以及组织自己固有的、不可预测的例外情况。HPE 并未尝试创建一个详细的情境列表。 AI 伦理政策,因为这个政策必然会遗漏一些内容。它选择建立一个通用的框架和过程,这个框架和过程可以回答实际问题,建立记录,并且继续跟踪记录。这种方法的另一个优点是可以应对一个已经处于动态变化的世界——即使今天的一些行为是伦理的,未来也可能会发生变化。并且建立一个可以跟踪和调整伦理决策的过程,HPE 这样才能更好地应对这种固有的动态。


遗憾的是,没有明确的规定来告诉公司如何创建这些流程。即使在上面的例子中,领导也有可能推翻当地团队的反馈建议,因为公司的核心价值是公平的。一般而言,如果全球领导能够明确地传达他们的目标和策略,这种情况应该很少发生,而且这些决定应该每年至少审查一次。定期审查对 AI 治理尤为重要——技术在变化,当地环境在变化,治理效果的数据不断收集,企业战略也在变化。对于定期的讨论和审查 AI 伦理学的可持续性尤为重要。


建立关于 AI 伦理的愿景


除了 AI 除了伦理的具体实施过程之外,我们在采访中还发现了另一个重要问题:公司缺乏远见。一个 AI 伦理团队成员表示(他来自印度的一家技术公司协会),大多数组织采用了基于合规性的伦理观。因此,组织只有在客户(主要位于西方)或当地监管机构的要求下才会实施。 AI 伦理政策。


最近由麻省理工学院和波士顿咨询公司举办的一次专题讨论会也得出了相关意见。与会者一致认为,当前的重点是 AI 经济效益。而这场由 AI 造成的淘金热已经减少了对伦理的考虑,或者将其简化为简单的合规问题。这种狭隘的做法不仅与组织公开解释的立场背道而驰,而且可能会制定 AI 伦理政策简化为“应付差事”,进一步使组织对系统的全球化和因时制宜不够重视。


HPE 计划在 6 周内制定其 AI 伦理原则。她们花了一年多的时间来制定一个合适的 HPE 这个框架,并且创建了一个可以让当地团队调整政策的过程。其中,大部分时间都是用来解决看似简单的声明背后的棘手问题——比如“我们遵守法律”看似简单,但当我们真正思考这句话时,就会出现无数的问题。遵守哪些法律?地方法律和全球人权原则如何平衡?做出这些决定需要征求哪些利益相关者的意见?如果公司没有做好认真参与这些讨论的准备,就意味着公司投资不足,结果会创造一个无效的框架来处理工作。这样不仅可以延长进入新市场的时间,而且可能导致产品质量下降,而且很难解决许多企业关心的法律责任问题。


用技术落实 AI 伦理


最后,我们在采访中发现了一个有趣而积极的趋势,即技术产品正在迅速填补外部研发的趋势 AI 模型与组织内部客户之间的空间。这样,技术产品就会抽象。 AI 伦理学概念转化为数字化、可配置的参数值。例如,一个产品经理告诉我们,他们的 LLM 安全产品将 AI 伦理学的应用分为四类:宗教、性别、种族和健康。外部研发的产品监控 LLM 对于每一类的表现,这四类在使用提醒时被进一步归类为更具体的术语。所以,客户组织可以配置这些类别来定义符合伦理要求的类别。 LLM 使用方法,并以此作为使用。 AI 一部分伦理制度。这一配置界面不仅提高了效率,而且可以扩展到 LLM 除此之外,让当地 AI 伦理团队更容易制定高级管理层。 AI “本土化”的伦理框架。


HPE 虽然技术上的方法可能没有那么“前沿”,但它采用了算法和自动化流程,积极要求一线开发者和销售人员提出建议。 AI 伦理问题,确定他们提出的例子是否包含在现有的“案例法”之内,并跟踪结果。每个公司都应该效仿 HPE,专注于使用技术来加强自身 AI 伦理学的过程,而非将技术与自动化模糊结合起来。


结论


从上述讨论中可以看出,AI 本土化伦理是一个重要挑战。虽然支持的原因很多 AI 伦理的本土化,但是 AI 使用者的组织反应不同。虽然 HPE 为了等待组织走在前列, AI 伦理的本土化已经制定了一个周密的过程和框架,但是其他组织似乎还在探索一些基本问题,比如如何构建。 AI 与伦理相关的实践;而且有些组织只把它当作一个合规问题。然而,随着 AI 高速发展,如何制定和落实因地制宜? AI 对所有企业来说,伦理措施是一个难题。


一种解决这一问题的方法是建立地方政府 AI 伦理团队,并继续与之合作。所以,我们提出了三点建议。第一,公司应该和当地员工一起制定。 AI 伦理规范。HPE 对于不同的地区 AI 对伦理和治理方法进行了详细的调查,并且不断与当地团队互动,这是一个很好的例子。其次,在早期阶段,公司应协商解决自身价值观与各地区普遍价值观的冲突,如上述日本文化价值观与算法干涉推广决策的冲突。最后,尽管公司是对的 AI 应用程序有一套整体观点,但也可以赋予地方领导一定的自主权,让他们在伦理的基础上实践。 AI,同时也可以应付 AI 管理和控制伦理差异。当然,能够在多大程度上给予这种自主权还需要进一步的讨论。


当你采纳这些建议时,不要把它们放在一边。 AI 伦理学被视为客观存在的“终点”。相反, AI 技术的组成部分是相同的,AI 伦理也在不断变化。所以,企业永远不会“完成” AI 伦理与治理。它是一个持续的过程。


斯瓦南德 · 德奥达尔(Swanand Deodhar) 法沃 · 博罗基尼(Favour Borokini) 本 · 韦伯(Ben Waber)| 文


斯瓦南德 · 印度管理学院艾哈迈达巴德分校是印度管理学院(Indian Institute of Management Ahmedabad)的副教授。为了研究数字平台和数字转型等主题,他根植于与实践的深度合作。《管理信息系统季刊》发表了他的研究成果(MIS Quarterly)、资料系统研究(Information Systems Research)还有《国际商业研究期刊》(Journal of International Business)等待世界著名的期刊。法沃 · 诺丁汉大学计算机科学学院博罗基尼 Horizon Centre for Doctoral Training 的博士生。在沉浸式环境中,她的研究兴趣是解决伤害问题的伦理框架。作为尼日利亚律师协会的一员,她拥有尼日利亚贝宁大学的法学学位。对人权(尤其是女权)的影响,她成功地利用自己的法律背景进行了调查,AI 对于非洲妇女的影响,以及非洲妇女在各个领域的工作 AI 工作经验。本 · 作为麻省理工学院媒体实验室的访问科学家,韦伯也是立命馆大学的高级浏览员。他的商业研究工作侧重于管理,AI 与组织成果的关系。或者是《人力资本分析》(People Analytics)一本书的作者。


DeepL、ChatGPT | 译 张雨箫 | 编校


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com