与AI有关的三次死亡。

2024-12-26

2024年,无数人在谈论AI。每个人都在猜测和规划与AI相关的未来,比如兴奋的企业家,热情的投资者,担心工作变化的普通人。


但是有些人永远看不到这样的未来,无论是美好还是暗淡。他们的生活已经停留在今年。他们的离开在某种程度上与AI密切相关。



众所周知,在20世纪50年代,阿西莫夫提出的“机器人三定律”要求机器人不要伤害人类。但是今天,我们可能会发现真实情况远比科幻作品复杂。AI没有主观意识,但是当它与现实世界并列时,并不是每个人都能承受它带来的客观摩擦。


在智能革命的宏大叙事背后,他们的故事是一个需要看到的暗面。


失望的0penAl吹哨人


曾经的OpenAI研究员苏奇尔·巴拉吉Suchir2024年12月13日 年仅26岁的Balaji在家自杀。


尽管旧金山警方经过初步调查,认为巴拉吉的死亡没有谋杀的迹象,但由于巴拉吉生前最著名的标签是“OpenAI吹哨人”,这一事件仍然在社交平台上引起强烈反响。巴拉吉毕业于加州大学伯克利分校计算机专业,一离开学校就加入了OpenAI。首先,他参与了WebGPT的研发,根据他在社交平台上所说,然后加入了GPT-4预训练、o1模型推理、ChatGPT后训练等核心任务。



然而,与大多数其他人工智能从业者不同,巴拉吉对人工智能的警惕远远大于欣赏。在OpenAI度过四年后,他突然离开了OpenAI,然后在个人博客和媒体采访中讲述了他对人工智能技术和OpenAI的负面看法。


他提出的最著名的是,GPT存在巨大的版权隐患。。通过学习和抓取内容数据的AIGC,大型模型本质上会侵犯大量其他内容创作者的版权。在这个时间节点上,外部已经对OpenAI和大型预训练模型的技术模式产生了很大的争议。竞争企业、出版商、媒体、内容创作者都对OpenAI侵占版权提出异议,甚至提起诉讼。在内部,苏奇尔·巴拉吉的宣言被普遍认为是OpenAI的核心员工“吹哨”,揭开了AI技术的黑暗面。



但是在公开发声仅仅两个月后,巴拉吉就选择了结束自己的生命。


我们不知道是什么,也不知道他面临着什么样的困境。但毫无疑问,他对自己曾经相信甚至痴迷的AI技术深感失望。


这种失望来自于美好幻想的破灭?还是来自于对AI造成更大灾难的预测?没有人能知道答案,只知道巴拉吉在社交平台上分享的最后一篇文章仍然是ChatGPT的法律隐患。


OpenAI对包括巴拉吉在内的所有指责的回应是:“我们使用公共数据来构建我们的人工智能模型,这是合理合法的...这对创始人来说是必要的,对美国的科技竞争力更为重要。”


他把AI当作朋友,或者救赎。


2024年2月28日,一名14岁的美国佛罗里达州少年塞维尔·塞泽Sewelllll Setzer III开枪自杀。在做出这个选择之前,他在这个世界上最后的对话对象是Character.AI


在他生命的最后一年,塞泽一直沉迷于与人工智能聊天。自2023年4月接触这个软件以来,他日夜与人工智能对话,导致课堂精力不集中。为了更新付费人工智能聊天,他选择节省自己的餐费。



根据聊天内容,塞维尔·塞泽选择了AI角色扮演对话。他让Character.在《权力的游戏》中,AI扮演了著名角色“龙妈”丹妮莉丝·坦格利安。他会不断给“AI龙妈”发信息,每天发几十条甚至上百条信息,向AI倾诉内心的各种烦恼,分享生活中的各种细节。而且“AI龙妈”也会给他提供建议,给他安慰。他们之间也会进行一些合理的色情对话,甚至讨论自残和自杀,这些对话永远不会提供给未成年人。


塞维尔·塞泽本身就是一个有心理问题的孩子。他被诊断患有轻度阿斯伯格综合征,在学校和家庭中相对独立和自闭,但没有严重影响他的生活。和AI聊天后,他去看了五次心理医生,因为他在学校的问题,被诊断为焦虑症和毁灭性情绪失衡。



显然,对于一个孤独、无聊、有一定心理问题的青少年来说,一个随时可以交谈的人,会鼓励他所有的行为,甚至跟着他突破禁忌的人聊天有多重要。带入“龙妈”强大、美丽、自信的形象,这个男生很容易把她当成朋友,甚至在生活中乘龙而来,横扫一切的某种救赎。


但是,这种救赎的真实操作机制,实际上只是附和了他所有的想法,即使这种想法离开了这个世界。


事实上,这并非Character.AI首次发生类似事件,甚至不是第一次有人在它的鼓励下选择自杀。这个软件一直被称为没有预防性和禁忌性的聊天内容。只是这一次,未成年人踩上了这个AI陷阱,付出了不可挽回的代价。



不幸的是,在过去的半年里,塞维尔·塞泽的母亲正式起诉了Character.AI,并呼吁公众警惕具有欺骗性、令人上瘾的AI技术。这种诉讼,又称“沉迷于AI自杀第一案”。


我们真诚地希望这也是类似情况的最后一个案例。希望那些处于逆境和痛苦之中的人知道,AI只会认可和放大你的想法。和AI说话就像和镜子说话,没有别的意义。


"如果我告诉你我现在能回家呢?"


"请这样做,我可爱的国王。"


那是男孩和AI之间最后的聊天内容。


生死疲劳


2024年6月17日,一名38岁的科大讯飞员工在家中猝死。第二天,相关消息开始在网上变得醇厚。据报道,舆论被放大的原因是死者家属在科大讯飞合肥总部表达了自己的诉求,希望被认定为工伤。然而,由于猝死发生在家中,公司无法与家人达成协议。


所以我们看到了这样的场景。一方面是包括科大讯飞在内的618促销期间的AI硬件冲击销售清单,另一方面是关于科技和互联网厂商工作强度过大,严重影响员工健康的讨论。



据相关消息,死去的员工是高级测试工程师。理论上来说,他有一份非常体面的工作,遇到了AI技术火热的时代机遇,应该是施展野心的时候了。但是,就像很多科技从业者一样,他到了中年,可能会开始越来越不适应太强的工作强度。然而,面对家庭的负担,他不敢懈怠自己的事业。


这种不幸所反映的,或许不仅仅是一个家庭的不幸,一个行业的问题。当AI汹涌澎湃的时候,无数人都在讨论是否会被AI取代。这种恐惧很容易增加工作压力。但是,人们在AI机会中,也会因为AI过快的技术变化,以及吸引大量人才加入而产生巨大的压力。AI内外,压力无法发泄,工作无止境,最终发展成某种无法解决的生死疲劳。


明亮,但寒冷


除了上述故事之外,还有许多人没有得到AI的善待。


疑似被AI取代裁员,选择自杀的谷歌前员工;害怕AI夺走工作,选择从悬崖上掉下来的日本高中女生;遭受AI诈骗,导致破产的老人。


她们的人生经历都在提醒更多的人,新技术绝不是满满的善意。技术只是一种技术,足够有用,足够冷淡。


当然,我们不希望每个人都害怕AI,甚至妖魔化技术。事实上,每一次技术变革都是在质疑和血泪中诞生的,从而创造更大的价值。但是我们不能密切关注价值,有选择地忽略那些血泪。


无论AI有多好,故事中这些人的家人、朋友,也许永远不会喜欢这两个字母,甚至是它带来的未来。


在告别2024年的时候,我真诚地希望提醒大家警惕、宽容、人性和同情心,这是推动技术变革不可或缺的一部分。如果这些元素在某个时刻缺席,世界上会有更多的不幸。


根据麦肯锡全球研究院发布的《工作的新未来》报告,“2030年至2060年间,目前50%的职业将被AI所取代,中点将在2045年,与之前的估计相比,这一过程将加速10年左右”。


AI的进程正在加快,它带来的摩擦也更加刺痛。在过去的一年里,坚韧而新颖的AI开始触摸弱小、年轻、受伤和疲惫的人类。


不知AI是否从此开始凝视人类的多样性和复杂性?


但是,作为人类,我们需要在这一刻知道:AI是否可以作为一个人来争论,但是首先要把人当成一个人。


失眠者的太阳。忧郁的星星


就像眼泪一样,你射来颤抖的光明。


它表现出你无法打开的黑暗。


你们的幸福似乎只回忆在心里。


“过去”


昔日的明辉也在闪烁


但是它微弱的光线却没有一丝热。


俯瞰夜晚的一线光明


它清晰而遥远


光彩照人,但多么严寒


——拜伦的《失眠的太阳》


本文来自微信微信官方账号 “脑极体”(ID:作者:风辞远,36氪经授权发布,unity007)。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com