NeurIPS新规拒稿引争议,ICML审稿质量遭群嘲,AI学术圈陷双重困境

1天前
你的论文,我们不收了!

两大AI顶会接连引发热议。NeurIPS 2026推出「制裁机构」新规,为投稿设置高门槛;ICML 2026审稿结果公布后,吐槽声此起彼伏,口碑直线下滑。


NeurIPS 2026官方手册中的一条新规,在国内AI学术圈掀起轩然大波。


你的论文,我们不收了!



与此同时,ICML 2026的评分刚一发布,全网骂声一片,审稿质量之差连审稿人自己都看不下去。


顶会每年都有新话题,今年的情况格外引人关注。



翻开这份长达数十页的文件,在「Sanctioned Institutions」部分,清晰写着:


NeurIPS基金会作为受美国法律管辖的实体,必须遵守美国的制裁与贸易限制法规。依据相关规定,向受制裁机构的代表提供「服务」(包括同行评审、编辑和出版)属于禁止行为。因此,我们将不接收也不发表这些机构的投稿。



消息很快在社交媒体和学术社群中传播开来。


有人感到震惊,有人十分愤怒,也有人默默打开OFAC网站,输入自己所在机构的名称查询。


873家实体,均在制裁清单之列


这条新规的严格程度,需要结合具体背景才能理解。


手册原文将同行评审、编辑、出版都归为受制裁的「服务」范畴。制裁清单上的机构,连提交论文的资格都没有了。


关键在于NeurIPS所依据的法律工具。它指向的不是商务部实体清单(Entity List),而是OFAC制裁名单。


后者是美国财政部主导的金融制裁框架,在合规领域,OFAC制裁被称为「核选项」,任何在美国注册的组织都不敢轻视。



从法律层面看,NeurIPS Foundation注册在美国,做出这一决定有其合规逻辑。


但从学术角度而言,这道门一旦关闭,影响深远。


此前2019年的IEEE「审稿门」事件,争议焦点仅在于审稿权,而且IEEE在不到一周内就撤回了禁令。


这次的性质已从「不让你担任裁判」转变为「不让你参与比赛」。


目前大家还在消化这一消息,但焦虑情绪已经蔓延开来。


ICML、ICLR会效仿吗?


NeurIPS、ICML、ICLR被称为「机器学习三大顶会」,共同构成了全球AI基础研究最重要的发表平台。


如果NeurIPS开了先例,另外两家是否会依据相同的法律理由跟进?


毕竟,ICML和ICLR背后的运营实体,同样是在美国注册的非营利组织。


这意味着,三大顶会面临的法律约束完全相同,NeurIPS只是率先采取了行动。


不仅如此,它们已联合设立Journal-to-Conference Track,共享审稿规范和双重投稿政策。


一旦NeurIPS将制裁合规写入投稿规则并形成先例,另外两家保持沉默的空间会越来越小。


也就是说,NeurIPS的这一步,很可能不是结束,而是开始。


学术无国界,但会议有国籍


从长远来看,这件事并非孤立存在。


2019年的IEEE审稿门、2020年后中国学者赴美签证收紧、2024年NeurIPS温哥华会议上大量中国学者因签证缺席……每一个事件看似独立,但串联起来,趋势就很明显了。


NeurIPS 2026的这条新规,首次将地缘政治工具正式融入AI顶会的投稿规则。


它不再是一封可以撤回的邮件,也不再是一次可以纠正的误判,而是白纸黑字写进官方手册,与论文格式要求、双盲审稿制度、利益冲突声明并列。


NeurIPS 2026在澳大利亚悉尼举办,但它的法律身份属于美国。


当会议的国籍开始决定谁能投稿时,某种东西已经发生了改变。


NeurIPS官网至今仍挂着它的使命宣言:


NeurIPS基金会是一家非营利机构,旨在促进人工智能与机器学习领域的研究交流,以最高的伦理标准,服务于一个多元且包容的社区。


多元、包容、促进交流。


在873家机构被拒之门外的当下,这段话读起来,别有一番意味。


ICML打分结果出炉,全网一片差评


NeurIPS这边的门还没完全关上,ICML那边又出了问题。


评审意见一公布,OpenReview瞬间崩溃。这一届ICML收到了约2.4万篇投稿。




就在上周,ICML组委会在公开审稿结果前,直接拒绝了497篇论文,占总投稿量的2%。


其中一个操作引发争议:


官方在论文PDF中隐藏了提示,专门用于检测审稿人是否直接用大模型处理论文。不少审稿人因此「中招」,其评审的论文也一同被淘汰。


更糟糕的是,全网出现了大量吐槽。



Meta研究员Ravid Shwartz Ziv直言:「审稿质量实在太差了,说实话,我现在宁愿它们是AI生成的。」


还有人表示,太离谱了,完全像是LLM生成的。




下面这种情况,更是让人惊讶。


一位审稿人贴错了别人的审稿意见;有人要求补充附录中已有的实验;还有人凭空捏造明显不成立的缺陷。



网友吐槽道:「只能说,ICML审稿质量真的一般……」




KAUST助理教授发帖,表达了对审稿人水平极差的无奈。


但有人认为,如果审稿人不懂,那不是审稿人的错,而是分配机制的问题。是ICML把论文分给了不合适的人,所以这是大会组织和分配系统的失败。



更有意思的是,用AI审稿的打分,普遍高于纯人工审稿。



一边是制裁清单关闭的大门,一边是同行评审质量的下滑。


2026年的AI学术圈,面临着双重困境:高端平台难以进入,基础评审质量堪忧。


参考资料:


https://x.com/ziv_ravid/status/2034068882562932785?s=20


https://x.com/_vztu/status/2034030592220926126?s=20


https://neurips.cc/Conferences/2026/MainTrackHandbook


https://sanctionssearch.ofac.treas.gov/


本文来自微信公众号“新智元”,作者:新智元,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com