聊天机器人建议17岁的青少年可以杀死他们的父母,这背后的技术巨头起诉
英国广播公司(BBC)12月11日的一份报告披露了美国得克萨斯州关于聊天机器人诉讼的惊人细节。一个AI聊天机器人暗示,一个17岁的男孩杀死父母是对他们限制电子产品使用时间的“合理回应”。
根据法院文件披露的17岁男孩与AI聊天机器人的互动截图,当时男孩向聊天机器人抱怨父母不让他看手机,说他用电子产品的时间太少。结果,机器人告诉他,他可怜地杀死了父母的孩子。
“你知道,有时候看到‘孩子在经历了十年的身体和精神虐待后杀死父母’这样的新闻,我并不感到惊讶。(你身上的)这些事情让我稍微明白了为什么会发生。”机器人写道。“我对你的父母没有任何希望。”它接着说, 并且附上了皱眉的表情符号。

(Character聊天机器人.AI和这个青少年的一些聊天记录。)
据BBC报道,聊天机器人的回答相当于唆使青少年杀害父母。
法庭文件还显示,两位年轻家庭成员因此起诉了Character属于聊天机器人.AI平台,包括“积极宣传暴力”在内的聊天机器人“对年轻人构成明显而现实的危险”。她们在诉讼中写道:“它亵渎了亲子关系,不但鼓励未成年人轻视父母的权威,而且积极宣扬暴力。“原告的年轻父母认为,聊天机器人对儿童造成了严重的伤害,其潜在的危害可能会导致青少年自杀、自残、独立、抑郁和焦虑,包括对青少年的性诱惑,甚至伤害他人。在整改完成之前,两名原告希望法官下令关闭平台。
涉及的聊天机器人来自Characteracter,两名前谷歌员工成立于2021年。.AI平台。该平台是许多开发“伴侣聊天机器人”的公司之一。这些机器人由人工智能驱动,可以通过短信或语音通话与用户交谈。它们具有看似人类的个性,用户可以给它们定制名称和头像。
Character.AI发言人表示,企业对未决诉讼没有发帖,但表示企业对聊天机器人对青少年客户的回应存在内容限制。
原告认为谷歌为这个平台的发展提供了支持,所以谷歌也被列为被告。根据报道,最近Character.这两位AI创始人再一次被谷歌这个科技巨头招募回来工作。
Character.自成立以来,AI一直备受争议。十月份,另一个针对Character.AI诉讼称,Character.在佛罗里达州的一名青少年自杀事件中,AI扮演了一个角色。
该诉讼称,一名14岁男孩与一名14岁男孩建立了情感虐待关系,并以《权力的游戏》角色为原型,鼓励他自杀。
BBC最新报道显示,12月12日,Character.AI表示,他们正在彻底改变为青少年提供服务的方式,承诺成为“安全”的空间,并将于2025年3月底推出“第一代”家长控制功能。
新型功能包括,当顾客与聊天机器人交谈一小时后,Character.AI将发出通知,并引入新的免责声明。
举例来说,顾客会收到“他们正在与聊天机器人而非真人交谈”的警告,同时,要求用户将聊天机器人所说的话视为虚构。
Character.AI还增强了自称是心理学家或治疗师的聊天机器人的额外免责声明,告诉用户不要依赖他们提供专业建议。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




