新的谷歌模型可以识别人类的情绪!但是很多人开始担心
编译 | 汪越
编辑 | 漠影
智东西 12 月 6 日消息,据 TechCrunch 昨天谷歌发布了新一代报道。 AI 模型 PaliGemma 并且声称该模型具有情感识别能力。谷歌说,PaliGemma 2 不但能对图像进行分析,生成详细的图像描述,还能识别图像中人物的情感状态。
据 TechCrunch 报告,要实现这种情感识别技术,PaliGemma 2 即便如此,这项技术仍然引起了专家们的高度关注和担忧,需要进一步微调。
多年来,创业公司和科技巨头都在努力开发能够检测情绪的企业。 AI 技术,用于销售培训,预防事故等领域。谷歌说,PaliGemma 2 已经进行了广泛的测试,对该模型在群体成见中的表现进行了评估,并声称该模型在“毒性和低俗水平”方面优于行业标准。
但是,谷歌并没有公开其所采用的完整检测标准,也没有明确披露具体的检测类型。唯一公开的标准是 FairFace,一个数据集,包括成千上万张头照。谷歌称之为 PaliGemma 2 该基准测试表现良好,但部分科研人员对此表现良好。 FairFace 对成见评价指标提出质疑,指出数据仅代表少数种族。
情感识别技术普遍面临不可靠和偏见。以面部分析为例,2020年 年 MIT 研究表明,现有的面部分析系统通常喜欢一些面部情绪(如微笑)。最新的研究还发现,一些情绪分析模型侧重于将黑脸的情绪解读为负面情绪,而白脸更为正面。
公开发布谷歌 PaliGemma 专家主要关注其隐性乱用风险。感情识别 AI 如果应用于执法、招聘、边境管理等高风险领域,可能会对边缘群体造成歧视,甚至误解人们的情绪状态,从而导致不公平的待遇。
谷歌回应说,针对外界的焦虑,已经对此表示, PaliGemma 2 全面评估了伦理和安全,包括儿童安全和内容安全。谷歌发言人表示,企业正在发言。 PaliGemma 2 此前已经进行了严格的测试,并承诺充分评估模型的“代表性危害”。
结论:谷歌需要平衡情感识别 AI 技术发展
当前,情感识别 AI 局限性仍然很明显,情绪表现的复杂性无法完全解决。简单的检测和评估并不能完全消除这种技术的潜在问题。
谷歌的 PaliGemma 2 技术创新在图像分析和情感识别方面得到了体现,但负责任的创新应该从产品开发初期就综合考虑其可能的社会效应,并在整个生命周期内不断评估。
这个动画《心理测量者》是由士郎正宗创作的。(Psycho-Pass)。这项工作被设定为一个未来社会,政府通过“心理测量”技术来监测公民的心理状态和犯罪倾向,从而预测和干涉可能的犯罪行为。警方为了实时分析个人心理状况,配备了一种名为“执法者”的设备;一旦系统检测到高犯罪风险,就会根据个人的心理起伏付诸行动,包括麻醉或更极端的措施。
随着 AI 随着技术的发展,这样的科幻场景逐渐接近现实。如何避免技术的滥用,保证其公平性和可靠性,已经成为 AI 行业亟待解决的核心问题。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




