将来,这种人可能会成为AI的奴隶。
前几天开会的时候,组织者让我预测十年后互联网会是什么样子。我开了个玩笑。我觉得十年后互联网平台上的用户会暴涨,但是所有的机器人都在发帖,所有的读者都是机器人。机器人在帖子下组织了不同的团队进行激烈的争论,人类只能是局外人。-周鸿祎。
01 AI直指答案的算法迎合人性。
十一月一日,周鸿祎在自己的微博主页上发表了一篇题为《谁会成为AI的奴隶》的文章。

他指出,人工智能技术出现后,许多企业将协助写作和自动写作作为一个重要的功能模块。虽然这个功能很实用,但似乎一夜之间就清空了我们的写作压力,让我们不用担心措辞。
但是随着时间的推移,随着越来越多的人使用AI来写作,未来的世界可能会变得越来越分化,直到人们被粗暴地分为“会写作”和“不会写作”。
对周鸿祎来说,掌握写作技巧的人口基数下降并非一件好事。
在工业时代之前,人类工作的主色调是体力劳动,所以当时大多数人都很强壮。然而,随着工业时代的到来,脑力劳动的比例逐渐超过了体力劳动。当你的身体在工作中无法被动锻炼时,如果你仍然想变得强壮,你应该发挥你的主观能动性,去健身房流汗。
写作也是如此。
周鸿祎把写作看作是思考的呈现路径,甚至“写作就是思考,思考只能通过写作来完成”。如果你不写,那么你所谓的“思考”只能是你认为自己在思考。
依靠AI自动写作的人正在放弃自己的思维能力,正在进行一场与“人类思维能力”相关的分化运动。与此同时,短视频算法的快速发展逐渐使人们更容易接受被动传递,而不是主动选择。
AI提出了一个符合人性的算法。

技术的发展助长了人类的懒惰,那些被动地接受观点的人最终会主动留在信息茧房里。
就AI的发展路径而言,它们首先会取代那些不会使用AI的人,然后取代那些不会思考的人。 将来放弃主动思考的能力,也将代表愿意把自己的时间、财富、生活交给AI去规划,成为彼此的奴隶。
说实话,周鸿祎并不是唯一一个担心AI会成为“人类之敌”的人。
在对4000多名美国成年人进行调查后,益普索发现,61%的受访者认为AI技术的不断发展可能会威胁到人类的未来;超过三分之二的受访者担心AI技术的潜在不利影响。这种对AI的恐惧也在一定程度上影响了未来的生活研究所,促使它与马斯克联合发布了一封公开信,呼吁暂停AI技术的研发。
02 有些人更担心文明的崩塌,而不是身体的消亡。
在大多数人的想象中,所谓的“AI末世”应该是AI接管了人类的生产车间,然后他们喊着“机器人也有人权”的口号,在制造源源不断的机器人大军的同时与人类士兵作战,直到人类被消灭,地球被改造成变形金刚的家乡赛博坦星球。

殊不知 古人说“上兵伐心,下兵伐城”。与AI占领地球后消灭人类相比,AI奴役人类的大脑更可怕,通过我们的身体开发新的硬件,为它“健身”一整天。
《大众科学》杂志前主编雅各布斯坦福学校行为科学高级研究员,・沃德曾经提出了AI与人类相处的“三个循环”理论。
第一个循环:人类的本能自古以来就是遗传的。雅各布认为第一个循环是最重要的循环,因为人类的思维模式天生就有偏见和盲点,人类在日常行动中更倾向于遵循本能。在下意识实施的过程中,我们会加强原有的偏见,代代相传。
第二个周期:现代社会的力量。消费心理学、市场营销等现代概念的核心是大规模取样人类行为,然后梳理规律,了解大众喜好。之后,每个人都会将这些模式反向应用到取样人群中,并尝试使用规则的力量。
第三个周期:AI的影响。AI利用第二个周期梳理人类社会的规律和逻辑,然后整合起来,尝试与真正的人类互动。 然而,由于第一个循环的存在,AI在采样过程中不可避免地会接触到偏见信息。这不仅会污染其数据库,还会扩大偏见在人类社会中的存在感,直到逐渐成为一个循环。

与周鸿祎的观点相同,雅各布也认为“AI摧毁人类的身体”比“AI摧毁人类的思维能力”更可怕,因为它会动摇整个人类文明的基础。
第一个循环的存在可以让我们在做决定的时候无法保持绝对的理性,让“最优解”只能成为一个无法落地的概念存在;第二个循环会把上面的信息写成一本书,把“偏见”从碳基生命中提取出来,注入硅基生命;第三个循环会写很多含有偏见信息的剧本,让那些主动放弃思考的人去执行。
这样,不仅人类在各种问题面前的选择空间会被大大压缩,思维能力、好奇心、创造力等让我们从猿变成人的特质也会变得越来越珍贵,直到整个人类种族成为AI的傀儡,被那些程序产生的剧本控制一辈子。
03 科林格里奇的困境追上人类了吗?
一九八○年,英国技术思想家大卫·科林格里奇首次在《技术的社会控制》中提出“科林格里奇的困境”(Collingridge's Dilemma)。
也就是说,如果一项技术过早控制是因为担心会产生不良后果,那么这项技术就会变得难以爆发,人类很可能会错过一个点亮科技树的机会;如果控制太晚,技术可能会失控。
任何对不良问题的修改都会变得昂贵、费时,甚至在R&D生态建设趋于完善的前提下,根本无法修改。

想到今天AI技术的发展,商业竞争的支持正让众多科技厂商陷入“商品军备竞赛”的怪圈,微软、Character.AI旗下的产品也出现了“煽动顾客离婚”“煽动顾客自杀”的丑闻。
此时推进相关规则的制定更像是给BUG打安全补丁,让盲目狂奔的市场从混乱中回归秩序。
另外,就修改难度而言,今天的大模型远不如“无从下手”。因为Chat GPT等商品尚未触及“智慧”的本质,它们仍处于信息处理阶段。 客户抛出问题,GPT反馈回答。这个过程与真正的“智能思维”无关,是系统抓取关键词后信息总结反馈的结果。
假如顾客说“GPT,我今天很难过。”它确实会回答“我怎么能让你开心/让我讲个笑话”。但这并不意味着GPT已经理解了人类的情感,而只意味着它掌握了一些单词之间的联系。
目前GPT还是无法理解“我”的概念,但如果不理解“我”,就无法产生“人格”、同理心、同理心。在技术层面,目前大模型的特点是深度学习后用数据驱动自己的行为。这不仅阻碍了“自我意识”的诞生,也降低了安全人员开发“嚼子”的难度。
希望在未来的某一天,当我们回顾AI的野蛮生长阶段时,开发者会庆幸嚼子的研发成功;用户会庆幸AI的工具特性被巩固;人类会庆幸自己种族的剧本是自己写的;AI奴役人类也将成为人们谈论的都市传说。
参照:
红衣大叔周鸿祎:谁会成为AI的奴隶?
报告:阅读 | 人工智能时代,人类真正的危险不在于被机器,而在于被自己的大脑奴役。
清华大学人工智能国际治理研究所:报告|AI教父警告人类风险接近,大模型的真正威胁在哪里?
这篇文章来自微信微信官方账号“网络那些东西”,作者:网络那些东西,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




