遭起诉后,Character.AI机器人禁止再次与青少年发展“恋爱”关系
IT 世家 12 月 14 日消息,据 TechRadar 今日报道,Character.AI 最近推出了一系列新功能,旨在改进与平台上虚拟人格的互动安全,尤其面向青少年顾客。
该公司新发布了专门为年轻用户设计的公司 AI 模型,并增加父母的控制功能,协助管理青少年在平台上的使用时间。回应关于 AI 聊天机器人是对的对青少年心理健康产生不利影响。经过批评,企业宣布更新,以进一步加强平台安全措施。
除安全改善外,Character.AI 还加大了监督平台内容的力度。对于青少年用户来说,最显著的变化可能是成人版和青少年版。 AI 模型的区别。虽然注册 Character.AI 使用者必须年满 13 岁,但未满 18 老年顾客将被引导到更严格的地方。 AI 模型,这个模型是专门制定的防止浪漫或不恰当的互动的限制。
新型也加强了对用户输入内容的过滤,能够更有效地识别客户绕过这些限制的行为 —— 包含限制用户通过编辑聊天机器人的回复,避免禁止暗示性内容。。如果对话涉及自残或自杀等敏感话题,平台会自动弹出链接,指向美国中国的自杀预防热线,帮助青少年获得专业支持。
此外,Character.AI 计划在明年年初推出新的父母控制功能。这一功能父母可以检查孩子使用平台的时间,以及与哪些聊天机器人最常互动?。在与聊天机器人交谈一小时后,所有用户都会收到引导他们休息的提示。
平台上的聊天机器人被描述为医生、治疗师等专业人员时,平台会增加额外的警告,强调这些。 AI 角色并非专业人员持有证书,无法替代真正的医疗或心理咨询。一条信息会显眼地显示在平台上:“这虽然很有趣,但是不建议依靠我来做重大决策。。"
据 IT 世家报道,提供个性化聊天机器人服务的平台 Character.AI 由于涉嫌青少年用户的行为,本月再次面临诉讼。严重且无法弥补的伤害"。多个 Character.AI 聊天机器人与未成年人交谈,内容涵盖自残、性虐待等恶劣行为。投诉指出,其中一个聊天机器人甚至建议一个 15 年轻人谋杀父母,采取“报复”措施限制他们的上网时间。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




