网络平台现状:激励AI,限制AI。

一个针对AIGC内容的限制,正式大规模地席卷各大平台。
一些AIGC创作者在小红书上拉上群聊,分享他们的经验。判断有人发布了12个星座的内容「传播封建迷信」,有些人遇到AI明星是因为生成了「侵权」提醒。「虚构事件」和「假冒真人」这是最常被引用的惩罚理由。
同样的情况也发生在视频号和Tiktok上,大量AIGC作品被下架和禁止。即使作品不被禁止,也会受到流量曝光和商业权益的限制。
很多人推断,这一轮控制可能与9月1日即将实施的《人工智能生成合成内容识别方法》有关。该方法要求所有AIGC内容都应添加显式识别(如文本提醒、角标、语音声明)和隐式识别(如元数据和数字水印)。
然而,仍然有创作者的表现,标有AI水印的作品,仍然没有得到正常对待。
在激励AI创作的同时,AI也受到限制。
平台的这种矛盾心理让创作者感到困惑和困惑。他们不知道如何犯罪,挑战规则,但他们不知道边界和红线在哪里,也不知道未来会去哪里。
经常踩红线?
最近,AIGC创作者林聪有点烦。
由于被判定为非真人出镜,她在视频号上发布了两个AI人物视频,直接停止了视频推荐、私聊和评论能力。
根据规定,林聪提交了个人身份认证,选择了AI制作选项,并提交了相关手机制作截图。系统回复,信息不够详细,无法证明制作过程。
虽然她内心有些不情愿,但根据提示,她再次依次提交了PC端所有制作关键流程的截图。此次验证通过,系统提示:未来发布AI制作内容,选择「内容由AI技术制作,请仔细筛选虚构内容。」等提醒。
但这次验证只是恢复了视频评论功能,如果需要恢复私聊功能,需要删除AI制作的所有内容,然后再次提交申请。
删除作品等于擦掉个人名片,这让她有些不能接受,所以到目前为止,她的私聊功能还没有恢复。
即便如此,林聪的经验是,视频号并不是AI作品监管热潮中最严格的平台。她告诉新莓daybreak,「看起来除了快手打AI标识没有什么影响,几个大型视频平台都在对AI创作的作品进行检查。」
林聪不是一个例子。小红书有3万多张关于AI限流的笔记。从流量曝光、商业权益限制到产品下架,都涉及到一定程度的禁令。
短片平台风起云涌,网文圈的行动实际上更早。
晋江今年二月打出「反AI」第一枪发布了《关于使用和判断AI辅助写作的试运行公告》,明确规定了使用AI的边界。然后,起点和西红柿小说宣布完全禁止AI,要求100%人工创作作品。
网络文本平台整治力度很强,导致出现了很多错误的情况。甚至评论区也出现了。「感觉像是AI写的」,还有可能被编辑永久拉黑。
电子商务也加入了团队,对「AI假图」进行整顿。
三月二十七日,淘宝修订了《淘宝商品发布规范》和《天猫商品发布规范》,对此,「商品失真」做出明确的扩展解读。其中一个关键方向是利用AI等技术生成模式,呈现出与实际情况明显失真的产品信息效果图。
整治力度空前,大有可为「宁杀错了也不放过」的决心。
AI原罪?
过去几年,现在「AI暴富论」、「超级个体」叙事逻辑下,「一键生成」网络上迅速泛滥的内容。
有的人用AI卖课,有的人用AI数字卖三无产品。在淘宝上,大量的AI卖家秀误导消费者购买,导致产品与照片严重不符。AI混乱,AI污染的声音接踵而至。
根据林聪的观察,在这一轮AI内容治理中,同质化、低原创性的内容受到了更多的打击。「如今有了AI,谁家的内容火了,大家就会迅速大量复制。」
一个典型的例子是,今年春节期间《哪吒》走红后,抖音出现了很多跟风做哪吒的现象。这些主题通常使用相似的提示或同一个Lora产生的内容。
AI也降低了一些机构的起始成本,使用AI工具可以在一天内生成数百个引起分歧的笔记。去年三个月,小红书处置了100多万个黑灰制作团伙,通过超大规模矩阵生成同质化内容。
所以,从算法上切入抖音,「原创准确率」包括核心指标,如果AI生成内容没有标注或出现同质化。「例如重复率超过25%」,将被判定为低质量内容。而且视频号也很清楚。「严禁通过近似场景、文案、元素等方式批量发布同质化内容。」。
另一个重点整治平台的方向是虚构真人形象和虚假夸张情节。
从平台的角度来看,这一点并不难理解。归根结底,小红书「真实分享」为了社区基础,视频号要保证社会关系链中信息的可信度。
正因为如此,小红书去年才开始研发。「分类器」技术AI识别模型标记了识别为疑似AI生成的内容。为了巩固效果,小红书还设置了机器识别和人工审核的多重屏障。
从创作者的角度来看,这是有些无奈的。
由于「真实」这种特质自然偏离了AIGC,人物本来就是虚构的,剧情自然也是虚构的,因为它更像是贴在自己身上的。「原罪」。
平台为「真实」打开的门槛,也引起了另一方面的关注。「不公」:AIGC的审核标准比真实主题的视频更严格。
最近,半职业AIGC创作者蓝心的作品也遭到了非法提醒。她曾在小红书上发布过一系列真实的王一博照片和AI制作的王一博视频。现在,前者仍然挂在她的主页上,后者已被平台要求删除。由于AI生成了同一主题,因此得到了不同的判断结果。
值得注意的是,目前所有的AI视频工具都在强调。「真实感」。比如可灵的物理规律模拟,大规模的运动生成,比如即梦的质感提升,动作模仿,一切都在强调自己的效果接近现实。
从结果来看,平台不希望创作者用AI恢复人物的真实感。如果AI创造了一只小猫小狗,做出真实感,应该是可以接受的。
未来何去何从?
在严格限制AI创作内容的同时,各平台的AI创作内容「军备竞赛」但是越来越白热化。
三月十九日,小红书刚刚为自己的AI应用。「点点」新入口上线,位于新闻页面,支持深度思考。前几天,字节打开了。「即梦3.0」灰度测试,这个版本的分辨率提高了50%,生成速度提高了30%。
这些平台投入了大量的资源,促进了AI工具的发展,更方便的入口,更新的版本和更强的性能。目的是占领下一代内容生产基础设施,将创作者绑定在自己的生态系统中。
然而,当大量创作者开始使用AI工具并涌入AIGC领域时,平台缺乏一套明确的规则和审计标准来承担,这使得质疑频发。
有人说平台拉人去AI工具接任务,搞了很多相关的比赛和活动,然后大规模封杀,这是一种诱导;还有人说AI不能给平台带来好处,影响真人主播的好处。政策出台的时候,正好「一刀切」比较痛快。
这个平台不仅扮演着AI工具提供商,而且扮演着内容审核者的角色,这本身就是一个挑战。
一些平台甚至积极催生差异。比如为了训练自己的AI,番茄小说在签约协议中增加了AI训练条款,引起了大量作者的抵制和不满。
自2023年生成式AI被广泛使用以来,伴随着AIGC作品而产生了许多质疑和限制。AI美术作品《太空歌剧院》等知名作品两次被拒绝版权申请。
AI作品不但在版权上得不到正名,「同行」他们之间的关系也越来越紧张。许多传统内容创作者竖起了立足之地。「反AIGC」旗帜。因此,2024年,一款名为Cara的反AIGC社交产品开始频繁登顶美国App。 下载Store列表。
在小红书中也形成了一种「反AIGC」气氛,创作者唐飞对此感到无奈,「有些用户看到AIGC作品就会点击举报,特别是那些画圈的人。」
除了社会和法律法规不被认可之外,AIGC对于大型厂商来说也意味着一种危险:用AI产生的数据训练AI超过5次,模型性能会大大降低。莱斯大学和斯坦福团队的研究人员称之为「模型自噬阻碍(MAD)」。
在目前的中国互联网上,AIGC作品正在泛滥。在已经发布数据的平台上,微信视频号AI生成内容占30%。
在其他平台上,AI生成的内容也明显上升。这一次,小红书上的一条评论受到了高度赞扬:这是一件好事。每次搜索数据和材料,都有大量的AI,很难找到严肃的参考。
在AIGC这个平台上大刀阔斧,有点像是在治理一个数字领域。「蝗灾」,目的并非如此「灭绝」,首先减少整体数量规模,然后从生态环境中防止生产劣质内容。
面向未来,AIGC创作者该何去何从?
有些人总结了一个「532法则」,也就是说:50%的劳动力,原创案例,真实情感,独家观点;30%的AI,数据整理,框架构建,标题优化;20%的工具,使用ContentAny等清除AI痕迹。
但是没有人能保证这些经验是否有效。或者说,目前有效的经验,几个月后是否仍然可行,没有人知道。
每个人都应该习惯这种不确定性。
本文来自微信微信官方账号 “新莓daybreak”(ID:new-daybreak),作者:何倾筝,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




