光明网评论员:专家用AI审论文,学术会因此失守吗

1分钟前

唯有明确AI的使用边界、清晰责任归属,它才能真正成为学术研究的助力;人们也不会在AI面前手足无措,既不盲目崇拜、轻易交出所有判断权,也不刻意抹黑、徒增不必要的戒备。


2月24日,药学综合类学术期刊《中国药房》编辑部针对近期部分审稿专家使用AI代审论文的现象发布声明。声明指出,学术期刊审稿工作具有科学性、严谨性与保密性等多重特殊要求,若随意使用未经保密性验证的AI平台代审,极可能无法保证稿件评审质量,还可能泄露作者的原创学术成果。声明同时要求,若收到的稿件内容确实超出自身研究专长,审稿专家应及时退审并说明理由;若在部分审稿环节使用了外部AI工具作为辅助,需注明工具名称及其在审稿过程中的具体用途。


该声明之所以引发关注,是因为它首次明确提及“用AI审论文”这一现象。此前,舆论还在集中讨论能否用AI撰写论文、如何识别和处理AI生成的论文等问题,如今话题进一步“升级”——不仅写论文,连审论文也开始使用AI了。


实际上,审论文正是AI的优势领域。在文献梳理、逻辑检查、方法比对、引用核验等相对“机械”的工作中,AI作为智能工具的优势十分明显。对于审稿人来说,AI能快速帮助排查论文中明显的结构问题、统计错误或表述漏洞,提示与已有研究的相似之处,从工具实用性角度看,它几乎是为审稿工作量身打造的辅助工具。


这一问题并非国内独有。斯坦福大学曾发表研究,对部分顶级AI会议的审稿意见进行分析后发现,ChatGPT出现后,这些同行评审意见中的“AI元素占比”大幅提升,最高达16.9%,而ChatGPT出现前这一比例约为2%。


这让不少学校“拒绝使用AI”的声明显得有些无奈。学生完全有理由认为,即便自己不用AI写论文,老师也可能用AI审论文,AI已成为学术生态中实际存在的一环。


但AI存在感的增强是否就意味着“不好”,则需另当别论。人的判断一定比AI更优吗?人的表达一定比“AI风格明显”的语言更出色吗?在AI快速发展的当下,恐怕很多人已不再有这样的自信。AI或许不够“大胆”,但在逻辑一致性、细节核查和文献覆盖方面,它更稳定、更严谨。别说AI写论文、审论文,用AI进行分子描述、细胞研究等也已十分常见。


在这样的大背景下,拒绝AI恐怕不现实,关键是重新找到人在学术生态中的定位。AI完成实验后,人该如何下结论?AI审完论文后,人该如何决定是否通过?从某种程度上说,人甚至可能沦为AI的“辅助者”,表面上仍是研究者、审稿人,实际上只是为AI的输出盖章确认。


不过,人在学术中的存在意义,并非为“人类尊严”争面子,而是确保有价值的学术成果能够产生。人作为最后一道关卡,也是唯一能“承担责任”的环节。做好最终的判断,或许是技术留给人类的最后一块重要领域。


因此,当下没必要拒绝AI,也不必因使用AI而产生“羞耻感”。正如《中国药房》声明中所说,“若在部分审稿内容中使用外部AI工具作为辅助手段,请说明工具名称及其在审稿过程中的具体用途”,关键在于明确AI的使用方式。


论文是否需要保密、人如何对最终结果负责、哪些环节允许使用AI,这些都可以清晰标注。只有当使用边界透明、责任归属明确时,AI才能真正成为学术的工具;人们也不会在AI面前进退两难,既不神化它、轻易让渡所有判断权,也不妖魔化它、增加无谓的防备。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com