大模型泄露真人简历引担忧:“AI幻觉”能否成为隐私泄露的挡箭牌?

3分钟前

4月20日深夜,Kimi K2.6版本发布,其强大的代码能力在AI圈引发热议。然而,就在行业为新技术狂欢之际,网友张呈(化名)的一则经历却让公众对AI隐私安全问题忧心忡忡。


“20日下午,我让Kimi帮忙翻译英文内容,它却突然把一份陌生人的简历发给了我,里面包含姓名、电话、工作经历等完整信息。”张呈向《每日经济新闻》记者透露,他通过简历上的联系方式找到了当事人钟先生,确认所有信息均真实无误。


记者随后联系钟先生核实,对方证实了此事,并表示已委托北京律师处理。张呈称,Kimi工作人员曾解释这是“AI出现幻觉导致的”,但此次泄露的信息均为真实内容,与通常虚构的“AI幻觉”明显不同。记者多次向Kimi母公司月之暗面发送采访提纲,截至发稿未获回应。


当AI逐渐融入工作生活,用户数据被转化为模型训练参数时,我们该如何守护个人隐私?


翻译任务意外收到陌生人简历


“4月20日下午,我像往常一样用Kimi处理工作,原本只是让它翻译一份英语PPT,没想到几轮对话后收到了陌生人的简历。”从事互联网广告工作的张呈表示,他日常高频使用多款AI工具,Kimi是他精挑细选的产品。


根据张呈提供的截图,他仅上传了PPT目录图片,要求翻译三行英文:“2025年‘618’市场与平台趋势、头部玩家表现与经验、后续‘双11’的筹备规划”。但Kimi先是错误地称图片内容与“减振技术”相关,在张呈质疑后,竟发送了一份包含姓名、电话、邮箱、工作经历等详细信息的陌生人简历。



Kimi给出PPT目录图片是关于“减振技术”的回复 受访者供图


“看到这份真实简历时,我立刻想到自己之前也向Kimi提供过姓名、住址等隐私信息,非常担心自己的信息也会被泄露。”张呈说。



Kimi发来的个人简历信息 受访者供图


张呈立即通过Kimi内部渠道和官方邮箱反馈,并向网信办举报,同时在社交媒体分享了经历。他称,Kimi工作人员起初解释是“图片发送失败导致的模型幻觉”,后又说是“小概率事件”。但张呈认为,即使概率低,也会给用户带来巨大风险,他已申请会员退款并决定不再使用Kimi。


专家解析:非“幻觉”而是系统漏洞


“AI幻觉通常是虚构内容,而这次是真实信息的错误泄露,本质是系统隔离失效。”君同未来创始人韩蒙指出,这更可能是数据隔离、会话管理或访问控制等工程问题导致的。技术专家徐立也表示,此类情况可能涉及会话隔离错误、缓存复用不当、检索链路绑定错误等,属于“链路级”隐私风险。


多位技术专家总结了可能的泄露路径:数据隔离失效导致用户数据交叉;检索系统错误关联其他用户数据;文件存储访问控制漏洞;任务标识与用户标识错配;分享或搜索配置不当导致数据暴露。专家建议,企业应尽快发布详细调查说明,而非用“幻觉”搪塞。


律师:“AI幻觉”不能免责


中国人民大学律师学院兼职教授王光英表示,姓名、电话等属于敏感个人信息,Kimi的行为已构成个人信息泄露,违反《个人信息保护法》等相关法律。“AI幻觉不能成为免责理由,责任主体是AI服务运营方,平台有法定的数据安全保护义务。”


记者查询Kimi《用户隐私协议》发现,其提示用户谨慎上传敏感信息,但王光英指出,这类提示不能免除平台责任。即使协议有相关条款,一旦发生信息泄露,平台仍需承担法律责任。



张呈于4月20日晚发起Kimi会员退款申请,次日下午收到退款 受访者供图


大模型隐私泄露成行业挑战


这并非Kimi首次涉及数据合规问题。2025年,国家网络与信息安全信息通报中心曾通报Kimi等35款应用违法违规收集个人信息。事实上,大模型隐私泄露已成为行业普遍问题:2025年国内首个大模型安全众测发现281个漏洞;ChatGPT曾因缓存缺陷泄露用户聊天标题和账单信息;Gemini共享链接曾被搜索引擎收录。



专家表示,大模型是复杂系统,完全杜绝泄露难度较大。治理需结合技术手段:一方面通过“防御性遗忘学习”擦除模型中的敏感数据;另一方面加强实时审计,拦截违规指令、过滤敏感内容。行业正从基础设施、应用架构、训练推理治理等方向推进隐私保护,将法律规则与技术设计结合。


(黄宗彦、温沐夏对本文亦有贡献)


每日经济新闻


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com