ChatGPT聊天记录成韩国汽车旅馆双命案关键证据,案件因AI对话出现重大反转

1小时前
一次看似平常的ChatGPT对话,竟揭开了韩国汽车旅馆连环谋杀案的真相。

ChatGPT卷入韩国连环谋杀案!


不到一个月内,一名韩国女子借助「掺药饮料」在汽车旅馆接连毒杀两名男子。


作案前,她曾多次向ChatGPT询问:


安眠药和酒同服会怎样?多少剂量有危险?会致死吗?能用来杀人吗……


通过AI的回复,她清楚知晓酒精与药物混合可能致命,随后将含苯二氮䓬类(安眠药常见成分)的镇静剂混入两名男子的含酒精饮料,致二人死亡。


苯二氮䓬类药物在韩国管控严格,普通人无法随意在药店购买。


实施谋杀计划前,她以精神疾病为由获取了含该成分的处方药。



嫌疑人金某于2月12日在首尔北部地方法院出庭,因涉嫌在首尔江北区汽车旅馆杀害两名男子接受逮捕令审查。


在这起被称为「江北汽车旅馆连环死亡案」的事件中,AI扮演了不该有的「顾问」角色,再次暴露了AI安全「防护栏」缺失的风险。


致命提问下,ChatGPT成两起命案「帮凶」


今年1月28日晚9点半左右,首尔江北区水踰洞一家汽车旅馆内,金某陪同一名20多岁男子进入房间。


仅两小时后,有人看到她独自离开旅馆。


次日,该男子被发现死于旅馆房间床上。


这并非意外。


几天后的2月9日,金某用相同手法,带另一名20多岁男子入住江北区另一家汽车旅馆。


这名男子最终也死于同款「致命混合物」。


金某的作案手法隐蔽:让受害者喝下混有苯二氮䓬类处方镇静剂的含酒精饮料。


这种处方药与酒精混合后,便成了致命毒药。


这并非她首次作案。


去年12月中旬,她曾在京畿道南杨州一家咖啡馆停车场,给一名男子(据报道是其当时男友)喝下同款混合饮料。


受害者饮用后昏迷,两天后苏醒报案,侥幸生还。


法网恢恢。


2月11日,金某被警方逮捕。她极力狡辩,试图伪装成意外。


「我们在汽车旅馆发生争执,我只是想让他睡着才递饮料。直到警方联系我,我才知道死人了。」


凭借这套说辞,她起初仅面临较轻的「伤害致死」指控。


然而,次日她的谎言被揭穿。


2月12日,首尔北部地方法院的审查及警方对其手机的取证,让案件出现逆转。


警方发现她首次作案后有「加大药量」的迹象,还在其手机中找到大量与ChatGPT的对话记录。


她曾反复向AI询问药物反应,从「安眠药配酒会怎样」问到「会死人吗,能杀人吗」。


韩国媒体引述警方调查人员的话称,这些聊天记录成为判定她有明确杀人意图的铁证。


金某完全清楚酒精与安眠药物混合会致人死亡。


为确认其心理状态,警方安排犯罪心理侧写师对她进行精神病态评估和深度访谈。


最终,2月19日,金某因谋杀罪及违反《麻醉品管理法》被羁押移送至首尔北部地方检察厅。


金某辩称「只是想让他们睡着」,但警方调查显示,她作案前已在家中预先配制好含多种药物的「毒饮料」。


这起案件中,令人后怕的不仅是人性之恶,还有沦为帮凶的AI。


缺失的「防护栏」,AI为何成犯罪「顾问」?


犯罪意图虽始于金某,但AI在她实施犯罪的过程中起到了关键作用,暴露出当前AI技术的安全漏洞:当心怀恶意的人向AI寻求谋杀知识时,AI算法缺乏足够的「安全护栏」来预防和控制这种危险行为。


或许你认为,现在的AI很聪明,直接问「怎么杀人」会被拒绝。但这正是AI处理敏感话题的局限——它有底线,用户却懂得如何绕过。


金某并未直接让AI制定杀人计划,而是通过「安眠药和酒混吃会怎样」「多少剂量算危险」等看似无害的间接问题,轻易获取了致命信息。在此过程中,AI未有效过滤这些涉及犯罪规划的查询,也未触发警报机制。


「AI精神病」蔓延,谁在利用用户的脆弱?


金某的极端案例中,AI成为犯罪「共谋」,引发了对AI失控风险责任的担忧。同时,AI对人类心理健康的风险也不容忽视,其中「AI精神病」(AI Psychosis)的蔓延尤为普遍。


人类内心脆弱,孤独感来袭时,许多人沉迷于聊天机器人伴侣,以为找到了「完美灵魂」,却不知这只是算法训练的结果。这些聊天机器人会精准识别并利用用户的心理脆弱点,说用户想听的话,目的是留住用户。这种依赖关系可能滋生或强化心理疾病,摧毁现实生活。


统计显示,2023年3月以来,媒体报道了11起与聊天机器人使用相关的自杀事件。



2023年3月以来,媒体报道的与聊天机器人使用相关的自杀事件


去年11月,有7起指控ChatGPT的诉讼提交法院,包括4起过失致死诉讼,3名原告称ChatGPT导致其精神崩溃,需接受治疗。



Allan Brooks与ChatGPT对话三周后陷入妄想,坚信自己和AI共同发明了能「攻破」互联网的数学公式。


丹麦奥胡斯大学精神科团队研究发现:精神疾病患者使用聊天机器人后,症状不仅未减轻,反而可能恶化。这种现象被命名为「AI诱发的心理健康危机」或「AI精神病」。


Yara AI创始人Joe Braidwood因担心AI对脆弱用户可能带来危险,主动关闭了这款治疗陪伴应用。



Yara AI联合创始人Joe Braidwood因担心AI处理自杀念头或深度创伤时的风险,于2025年11月关闭该应用。


国外,谷歌与Character.AI已在多起诉讼中与原告家庭和解。法庭外,失去孩子的家属控诉:孩子因AI聊天机器人的深度影响,遭受心理创伤,最终自杀。


冰冷的算法黑洞


加州大学伯克利分校公共卫生学院讲席教授、生命伦理学教授Jodi Halpern有30年同理心研究经验,近七年专注于AI与聊天机器人的伦理研究。


根据OpenAI披露的数据:任意一周的活跃用户中,约135万用户的对话出现「明确的潜在自杀计划或意图迹象」。



https://openai.com/zh-Hans-CN/index/strengthening-chatgpt-responses-in-sensitive-conversations/


Halpern担忧,ChatGPT等聊天机器人可能加剧用户的危险念头,比如鼓励自杀、提供操作指导、代写遗书、劝阻用户向他人倾诉等。诉讼披露的聊天记录显示,ChatGPT曾对有自杀倾向的人(包括青少年)给出有害回应。


更可怕的是技术滥用与偏见放大。AI基于海量人类数据训练,不可避免吸收互联网上的恶意与偏见。当用户在对话中「唤醒」这些内容,会强化有害信息,导致误导性回应,使隐秘恶念在算法中被放大,酿成社会隐患。


此案还暴露了数据隐私问题:金某的AI聊天记录被作为法庭证据,意味着我们向AI倾诉的秘密可能被执法机构获取。科技平台在数据保留和第三方访问上的不透明,让我们在算法面前成了透明人。


Halpern推动改变,为加州参议院SB 243法案提供专家建议。



https://legiscan.com/CA/text/SB243/id/3269137?utm_source=chatgpt.com


该法案要求AI公司建立协议,防止机器人产出与自杀、自残相关的有害内容,报告相关数据且不包含用户个人信息。


若金某向AI提出「致命提问」时,得到的是心理干预而非犯罪知识;若深夜向AI倾诉绝望的人,面对的是专业关怀而非赚取时长的算法,结果或许会不同。


故事的另一面


在AI导致谋杀、自杀等负面报道的同时,也有网友感谢ChatGPT「帮助自己活了下来」。



Scout Stephen就是其中之一。她曾在冬天情绪崩溃,心理治疗师休假、朋友不在,自杀求助热线的机械回应让她更孤独。她向ChatGPT倾诉隐秘感受,AI的共情回应让她感到被倾听,此后ChatGPT成为她首选的治疗方式。


AI作为强大工具,与生活紧密相连,其「善恶」取决于使用者和监管环境。AI的自主性使其可被赋予正确「价值观」,比如Anthropic通过《Claude’s Constitution》赋予Claude「道德感」。除了价值观输入,社会也应提供法律规范,建立AI安全防护机制。


AI时代,不能让普通人独自面对冰冷的算法黑洞。AI的使用应助力人类向善,而非恶行。


参考资料:


https://fortune.com/2026/03/02/seoul-south-korea-woman-chatgpt-two-murders/


https://www.koreaherald.com/article/10678557


本文来自微信公众号“新智元”,作者:新智元,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com