AI文本检测器由OpenAI下架,AI检测AI宣布失败。

商界观察
2023-08-04

或许现在对AI最准确的描述就是“既是天使,又是魔鬼”。如今,再次流行起来的AI,不仅帮助人类社会实现了效率革命,也带来了AI新闻造假的泛滥和越来越多的AI骗术。因此,控制AI已经成为当前科技领域的一个重要问题。但是,面对可以称之为日新月异的AI技术迭代速度,针对它可能导致许多危险结果的思想也逐渐上升。

 

OpenAI作为当前AI技术的先驱,面临着这个问题。公司创始人萨姆·奥特曼从今年年初开始就频繁“走穴”。他参与了从学术界到工业界的讨论,再到以AI为中心的控制。他还主动要求监管计划,希望监管机构尽快考虑立法。与此同时,OpenAI也没有忘记尝试从技术层面约束AI,并于今年2月推出了一个测试工具,试图区分人工编写文本和AI生成文本。

 

这个工具叫AI文本检测器。(AI Text Classifier),OpenAI曾经认为有利于防止AI文本生成器被滥用,但是经过几个月的实践,OpenAI几天前悄悄下线了AI文本检测器。按照OpenAI的说法,这个工具下架是因为测试精度太低,但是“相关技术会继续研究得更有效率”。所以简单地说,OpenAI之前希望使用AI来控制AI的尝试似乎是空的。

 

之前OpenAI推出这款AI文本检测器的时候,其实外界的期待是极高的,希望能和ChatGPT一起上演一款“猫鼠游戏”。这个公告的使用一点也不复杂。在检测过程中,客户可以检查内容是否是AI生成的,只需将需要检测的文本复制到检测器中,文本内容的类型不受限制。

 

假设在面对大量信息时,人工控制几乎是不现实的,那么使用AI相关技术来监控内容或许才是更加实际的操作。但遗憾的是,AI文本检测器的效果甚至不能称之为不尽如人意。根据OpenAI公布的相关数据,AI检测器在识别AI生成文本方面的准确率只有26%,而将人类所写的内容识别为AI的差错率则达到9%。

 

事实上,客户体验可能远低于这个数字。一些研究人员用多年前出版的书籍中的一个片段来测试它。结果AI文本检测器显示,不清楚这本书的序言是否由AI编写,但序言“也许”(Possibly)这是人工智能的生成,第一章是“也许是”(Likely)"人工智能写的。

 

更有甚者,有人曾经把莎士比亚的麦克白放在上面进行测试,但结果却是“The classifier considers the text to be likelyAI-generated”。也就是说,这个AI检测器认为,麦克白可能是AI写的。

 

事实上,OpenAI不仅试图用AI来衡量AI,而且许多机构或研究人员正在走这条路,但到目前为止,它无一例外地没有商业价值。

 

虽然目前OpenAI还没有公布AI文本检测器的技术原理,但从其目的来看,使用监督学习方法的概率很大。监督学习实际上是机器学习中的一种训练方法,是指利用一组已知类型的样本来调整分类器的参数值,使其达到所需特性的过程。在这里,训练数据变成输入数据,分类变成标签数据。

 

简而言之,尽管本来不知道A和B能有什么样的关系,但通过许多A和B,、并且可以知道AB关系的数据,他们有一个函数式f关系。(A,B),并且可以在后期通过f(A,B)从而得到一种符合实际规律(相对准确)的结果。大家都知道,RLHF是ChatGPT训练中非常重要的一步, 也就是说,增强人类反馈的学习实际上是一种非常典型的监督学习。

 

监督学习技术作为AI领域的经典方法论,自然也存在着被发现的不足。第一,监督学习的一个重要前提是需要大量的标记数据,标记数据的质量直接影响模型的性能。标记数据的不准确或不完整可能会导致模型的错误预测。第二,在实际应用中,不同类型的样品数量可能存在很大的不稳定性,即某些类型的样品数量远低于其它类型。这样就会导致模型在学习过程中对少数类型的识别性能较差,从而影响模型的整体性能。

 

比如OpenAI的AI文本检测器之所以认不出麦克白是莎士比亚的作品,关键因素是莎士比亚是近500年前的历史名人。他写麦克白时使用的古代英语和现代英语有很大的不同。然而,在OpenAI的数据中,古代英语的总数极其有限,所以AI自然无法确定麦克白来自哪里,而推断出来的内容却没有来源,这其实是相当合理的。

 

所以这就是问题所在,如果AI检测工具本身的性能很强,那么它就需要一个接近ChatGPT的工具。、或其他AI大模型量级数据。但是很明显,从目前的情况来看,OpenAI不仅做不到与ChatGPT不同的数据,即使它的重要投资者微软也没有抓住它。说到底,如果真有这样的数据集,为什么不拿它来训练ChatGPT,孵化出更强大的GPT-5呢?

 

所以说到底,用AI来控制AI现阶段可能只是一个很好的想象,但是从目前的技术标准来看,这条路径并没有什么实际意义。如果只是帮助人类识别AI生产的内容是什么,或许数字水印技术更可行。在ChatGPT等AI模型生成内容的那一刻,加入水印,让用户直接看到内容就能知道是否是AI生成的。

 

本文来自微信微信官方账号“三易生活”(ID:IT-作者:三易菌,36氪经授权发布,3eLife)。

本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com