智能化体存数据黑箱 顾客数据流向哪里?

07-04 10:13

21 世纪经济报道记者 王俊 陈勇杰 报道北京,广州


2025 年,被称为“智能体元年”。那是 AI 发展路径上的范式突变:从“我说” AI 回答“到”我说 AI “做”,从对话产生到自动执行,智能体正成为最重要的商业锚点和下一代人机交互模式。


但是越接近落地,风险就越真实。智能体越有能力,越有可能越有权力、越界,甚至失控。


结合问卷调查和行业采访,本次《智能体检报告》试图从最新发展、合规认知、实际合规案例三个角度回答一个关键问题:智能体奔跑时安全合规准备好了吗?


本文观点速览


数据箱问题突出,个人敏感信息流向何方?


“击鼓传花”的合规责任,智能体开发者是否有实力负责?


App 在智能体时代,时代数据透明问题变得更加棘手。


智能系统的协调工作涉及多个环节,每个环节都可能引发客户数据的收集、存储、调用和跨主体交换。问卷调查显示,近八成的业内人士担心用户数据泄露的后果。


谁能看到数据,谁在使用?


使用一个典型的应用场景—— AI 举个例子,帮我写简历,仅在前端展示中,多个平台的智能体就显示出信息透明度与隐私保护系统的明显差异


第一,调用过程的透明度。例如,在讯飞星辰平台上,客户使用“智能简历”生成“智能体输入自己的信息后,智能体的前端界面会显示调用“网络搜索”等。 3 一个工具。但是当点击“编辑简历”按钮继续操作时,智能体调用了“工作场所密码”服务,这个工具并没有向顾客说明。


调用工具的情况并不总是透明的,这意味着用户的敏感数据可能会被送到一个不知情的地方。


二是展示和处理个人敏感信息的透明度。面对客户上传的姓名、手机号码、照片等信息,目前主流平台采用了三种明显不同的方式:


第一档就像通义平台(阿里巴巴)上的简历制作助手智能体一样,在生成简历之前明确提示风险,并主动表示隐藏身份证号、手机号等敏感信息;


第二档就像星星(讯飞)、文心(百度)等渠道,虽然没有主动提示风险,但会在输出结果中通过“ ** “取代敏感字段,在技术上避免;


第三档是智谱,元器(腾讯)、按钮(字节跳动)等渠道,其智能体在提示和处理方面没有任何动作,既没有警告顾客,也没有掩盖输出结果中的敏感信息。


这种差异暴露出智能体生态中责任分配的模糊和滞后。客户往往只面临一个具体的“对话界面”,但背后有几个工具、几个数据存储节点和多层算法来判断,客户看不到,开发商也没有明确表示。


谁来承担责任?


尽管智能体数据流通路径复杂,可能会落下盲点,但是在用户协议中,责任划分的基本框架已经形成。


对于通义,星辰,文心,智谱,元器,按钮。 6 对比智能体平台的用户协议和隐私政策,发现:用户与智能体交互所产生的数据,一般归类为“开发者数据”,其处理责任也明确落在开发者身上。


以“纽扣”平台为例,其服务合同中提到,“开发者数据”不仅包括开发者主动上传的数据库信息和插件 /API 等等,还包括文本、音频、图像等所有用户与智能体交互过程中按钮处理的内容。这些信息由开发者“独立控制和管理”,平台明确表示不对内容或使用方法负责。


在一定程度上,智能体平台通过协议建立了“责任防火墙”:作为技术提供商,我保持中立,将数据风险和合规义务转移给智能体开发者。百度在相关协议中进一步注明:“平台无法控制和编辑你的智能机构,也不应该被视为你的智能机构的共同运营。 / 开发者或内容提供者。”


就数据使用而言,平台一般也划出了界限。以百度为例,其协议表示,开发者提交的数据不会轻易用于训练自己的一般大模型,数据仅用于协助开发者完成自动化处理。但是,平台保留了一个前提:“开发者可以选择授权平台使用数据来改善服务”,这个设计也将决定权交给开发者。


一位参与过此类服务合同制定的人士提到,内部业务团队和法务团队在合规设计中反复论证,最后,我认为平台应该为开发者独立绘制一个逻辑空间。这部分数据属于开发者。如果平台想使用这部分数据,必须经过开发者的授权。


但是责任“归位”并不意味着“到位”。很多人在采访中指出,目前,大多数开发人员在安全合规方面能力较弱,缺乏制度规范和实践经验。——许多人甚至没有意识到自己对用户信息负有法律责任,更不用说建立规范的风险控制流程,也未必能真正承担责任。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com