人类文明的终结?科学家们发出了警告:AI正在使我们成为「无关紧要」

05-08 10:38


人工智能能力越来越强。(AI)制度,会不会让人类文明结束?


实际情况是,AI 它在社会、文化、社会等方面发挥着越来越重要的作用。 AI 当人类的存在变得更便宜、更可靠的时候,也许就不再那么重要了。


日前,在 AI 领域上班了 20 年多伦多大学计算机科学副教授,Schwartz Reisman 技术与社会研究所联合主任 David Duvenaud,在《卫报》在英国上面发表了有关上述观点的文章。


对他来说,我们只能追踪 AI 使用和影响,对前沿的影响 AI 部署和指导实验室,使用实验室 AI 强化每个人的组织和自我宣传能力,学会控制我们的文明在这些方面做出努力。但是,技术开发者目前还没有更好的应对这一趋势的计划。


“他们会悄悄地以无数微妙的方式取代人类。一开始是因为他们更便宜,最后是因为他们真的比我们最好的人更好。”“不管你会不会失业,你都会知道你的意见是可有可无的。”


他指出,我们不应该这样做 AI 竞争者,争分夺秒地创造自己的替代品,而应作为他们的受益者和经理。


原文如下:


与战争不同,文明的终结可能更像是一个爱情故事。在自己的衰落中,我们能避免成为自愿参与者吗?



如今,大多数大型人工智能实验室都有一个团队在研究如何让人工智能逃离控制,或者秘密地与人类勾结。但是还有一个更普遍的方法,我们可能会失去对文明的控制:我们可能会被淘汰。这不需要任何隐藏的阴谋——如果人工智能和机器人技术不断发展,这就是默认情况。


怎么说呢?人工智能开发人员正在坚定不移地创造更好的人类替代品,这几乎可以取代我们所扮演的所有角色:不仅是经济上的工人和决策者,也是文化上的艺术家和创作者,甚至是社会上的朋友和浪漫伴侣。当人工智能能够做我们所做的一切,做得更好时,人类的地位是什么?


说到人工智能目前的能力,有时候听起来像是营销炒作,有些是真的。但从长远来看,优化的空间是巨大的。你可能会认为总有一些人类特有的物品是人工智能无法复制的。我在人工智能研究领域工作 20 2008年,见证了人工智能从基本推理到处理复杂科学问题的发展过程。如今,人工智能系统可以轻松应对那些看似人类特有的能力,比如处理抽象或使用抽象类比。也许进展会有一些延迟,但是我们应该相信,人工智能将不断取得全面的进步。


这些人工智能将不仅仅是人类的助手——它们将以无数微妙的方式悄然取代人类,最初是因为它们。更便宜,最终,这是因为他们的确比我们的表现最好。更出色。当他们足够可靠时,他们将成为大多数重要工作中唯一负责任的选择,从从法律裁定、财务规划到医疗决策,等等。


最容易想像的是,现在就业方面,未来会是什么样子:你会听到朋友下岗,找不到新工作。为了期待来年更好的人工智能员工,企业将冻结招聘。越来越多的工作将是接受可靠、迷人、热情的人工智能助手的意见。你们可以自由地思考大局,但是你们会发现自己在和超懂你们的人工智能助手交谈。该助手将填补您计划中的空白,提供相关数据和例子,并提出改进建议。最后,你会直接问它:“你认为我下一步该怎么办?“不管你是否会失业,你都会清楚地知道,你的意见是可有可无的。


除了工作之外也是如此。甚至一些人工智能研究者也对第一批具有通用推理能力的模型感到惊讶, ChatGPT 和 Claude 前身,也可以做到圆滑、耐心、细致、亲密。但是现在很明显,社交技巧能像其它技能一样被机器学习。每个人都已经有了人工智能的浪漫伴侣,人工智能医生的临床态度也一直比人类医生好。


当我们每个人都能得到无尽的个性化关怀、指导和支持时,生活会是什么样子?你的家人和朋友会比平时更专注于屏幕。当他们和你说话时,他们会告诉你他们的在线合作伙伴说的有趣而令人印象深刻的话。


也许你会因为别人对新同伴的喜爱而感到不开心——在这种情况下,你最终可能会向你的日常人工智能助手寻求建议。这位可靠的顾问会礼貌地说服你处理任何问题,并帮助你训练和与家人进行艰难的对话。经过这些相对累人的互动,参与者可能会通过与自己的人工智能知己交谈放松心情。或许我们会同意,在向虚拟伴侣转变的过程中,我们失去了一些东西,甚至我们开始发现与原始的人类接触相比,它变得更加生硬和无聊。


到目前为止,它仍然是一个乌托邦。但是我们不能选择更喜欢人类顾问和人类制造的产品和服务,而不是这样使用人工智能吗?问题是,在很多领域,我们甚至可能很难注意到人工智能的替代——而我们注意到的大多数部分似乎都有了很大的改善。即使在今天,人工智能产生的内容也越来越难以与人类创作的作品区分开来。购买一个只有人类一半水平的人,要花两倍于人类治疗师、律师或教师的价格,是非常令人信服的。选择速度慢、成本高的人类组织将被选择速度快、成本低、可靠的人工智能组织所取代。


人工智能一旦能够取代公民所做的一切,政府就不会有太大的压力来照顾人民。残酷的事实是,民主权利的产生部分是出于经济需要。然而,当政府的资金来自人工智能而不是公民时,当政府开始以效率和效果的名义用人工智能取代人类员工时,这些权利就不那么重要了。


最令人不安的可能是,这一切在我们看来可能是完全合理的。在目前的原始状态下,成千上万的人爱上了同样的人工智能伙伴,他们会提出一个非常有感染力、迷人、复杂和有趣的论点,这表明为什么我们的相关性实际上是一种进步。人工智能权将被视为下一项重要的民权工作。“人类优先”阵营将被描述为站在历史错误的一边。


最后,当没有人计划或选择时,我们可能会发现我们在为金钱、受欢迎程度甚至相关性而奋斗。这个新世界在很多方面可能更友好、更个性化,只要它能继续下去:AI将处理令人讨厌的任务,提供更好的商品或服务,如医疗和娱乐。但是人类将成为增长的阻力,如果我们的民主权开始下降,我们将无法保护它们。


这类技术的开发者一定有更好的计划吗?令人震惊的是,答案是否定的。Anthropic CEO Dario Amodei 和 OpenAI CEO Sam Altman 人们都认为,一旦人类劳动力失去竞争力,我们将完全重组经济体系。但是没有人知道这会是什么样子。大多数承认可能发生完全变化的人都在研究人工智能滥用或秘密串通带来的更直接的威胁。尽管诺贝尔经济学获得者等一些经济学家 Joseph Stiglitz “人工智能可能把人类工资推到零”的警钟已经敲响,但是很多人似乎不愿意考虑人工智能可能会成为人类劳动的补充。


那怎样才能防止我们逐渐失去权力呢?


第一步是讨论这个问题。对于这个巨大的话题,记者、学者和其他思想家保持着奇怪的沉默。这个问题我个人觉得很难想清楚。说“我害怕未来,因为我不能和别人竞争”听起来很虚弱,也很丢人。听起来很丢脸,“你应该担心,因为你会无足轻重”。听起来像一个失败者,他说:“你的孩子可能会继承一个没有他们容身之地的世界。他说:“当然,我总是有特别的优势?或者“我是谁,我有什么资格阻碍进步?"这种搪塞是可以理解的。


一个不言而喻的想法是,一般的人工智能根本没有建立起来。虽然减缓其发展速度可能是合理的,但为了在全球范围内长期阻止其发展,大多数计算机芯片制造业可能需要在全球范围内协调拆除。这条路的一个主要危险是,政府可能会禁止个人开发人工智能,但它仍然会用于其他目的,从而延迟我们被淘汰的时间,但它会提前削弱我们的能力。


假设我们无法阻止人工智能的发展,至少有四件事是有帮助的。


第一,我们应该试着跟踪人工智能在整个经济和政府中的应用和影响。人工智能在哪些方面取代了人类的经济活动,尤其是如果人工智能开始大规模地用于游说和宣传等活动,我们需要知道。Anthropic 最近发布的经济指数是这个领域的第一次尝试,但是仍然有许多工作要做。


第二,我们至少需要为了避免这项技术在我们仍在探索的过程中积累太多的知名度,对前沿人工智能实验室和部署进行监督和监督。目前,我们依靠自愿的努力,无法协调和阻止自主人工智能指挥大量资源或汇聚力量。如果我们开始看到困难的迹象,我们应该能够干预和缓解形势的发展,尤其是当个人和团体从损害社会共同利益的事情中受益时。


三是我们能做到利用人工智能来提高人们的组织能力和自我宣传能力。如果我们能在仍然有影响力的时候建立这些机构,人工智能支持的预测、监督、规划和谈判将为设计和实施更值得信赖的机构提供可能。例如,有条件的预测市场和人工智能支持的预测可以帮助人们更清楚地看到不同政策下的世界方向,比如“如果这项政策成为法律,三年后人类的平均收入会发生什么变化?””“这个问题。测试人工智能支持的民主机制,将使我们能够为更快变化的世界所需的反应更加敏锐的治理模式提供原型。


最后,要想在不被边缘化的情况下建立强大的人工智能,我们必须完成一项艰巨的任务,那就是学习如何引导文明?。在此之前,这种“摸石头过河”的方法还可以,因为无论如何都需要人类。如果没有这样的保障,除非我们知道权力、竞争和成长的所有运作模式,否则我们就会漂泊。人工智能对齐(alignment)在这个技术领域,我们关注的是如何保证机器与我们的目标一致,这需要把范围扩展到政府、机构和社会本身。这个新领域有时被称为“生态系统对齐”。它可以参考经济学、历史学和博弈论,帮助我们理解我们可以合理期待什么样的未来,以及如何实现这些目标。


越是看清自己的方向,协调得越好,就越有可能创造出一个人类与之密切相关的未来。——作为受益者和管理者,而不是人工智能的竞争对手,。现在的情况是,我们正在争分夺秒地创造自己的替代品。


原文链接:


https://www.theguardian.com/books/2025/may/04/the-big-idea-can-we-stop-ai-making-humans-obsolete


这篇文章只是作者的观点,并不代表学术头条的立场。


本文来自微信微信官方账号“学术头条”,整理:与可,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com