掘金 人工智能 05月16日 18:48
ACL 2025 录用血战,高分论文惨遭淘汰!谷歌 AI 大佬揭评审内幕
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

ACL 2025会议投稿量破纪录,竞争异常激烈,录取结果引发学界热议。许多高分论文遭遇拒稿,即使元评审给出较高评价也未能幸免。评审标准问题暴露,元评审意见与最终决策脱节,评分体系对创新性强但证据不足的论文存在偏颇。新评审表和评分标准与往年差异大,导致及格线提高。尽管竞争激烈,仍有优秀论文脱颖而出,部分学者晒出成功录取的喜讯。

📈ACL 2025投稿量创历史新高,竞争激烈程度前所未有,许多论文即使获得较高的审稿评分和元评审推荐,最终仍被拒稿,反映了顶会竞争的残酷性。

⚖️ACL评审机制存在问题,元评审意见与最终决策脱节,最终录取决定受程序委员会名额配额等非技术因素影响。此外,评分体系难以处理创新性强但证据不足的特殊情况,导致评审结果与论文质量不符。

📊ACL Rolling Review启用了全新评审表和评分标准,与往年相比差异显著,导致整体评分标准提高。以往2.5分尚可接受,新标准下则明显不合格,加剧了论文录取的难度。

【新智元导读】ACL 2025 录用结果新鲜出炉,8000 多篇总投稿量破纪录。今年竞争异常激烈,高分被拒者一大片,还有创新论文因评审标准脱节受挫。

ACL 2025 录用结果终于公布了!

最近,ACL 组委会正式向所有作者,发送了最终录用决定。

今年是 ACL 第 63 届年会,将于 7 月 27 日 - 8 月 1 日在奥地利维也纳正式开幕

前段时间,ACL 曾公布了今年总投稿数,高达 8000 多篇,创历史之最。根据 Paper Copilot,ACL 2024 总投稿数为 4407。

不过目前,论文录用率暂时未公布。

值得注意的是,从网友晒单中可以明显看出,今年 ACL 的竞争比以往更加激烈。

高分被拒,ACL 争破头

亚利桑那州立大学 CS 助理教授 Vivek Gupta 表示,团队论文最终得到了 3, 3.5, 4 不错的审稿人评分。元评审(Meta-Reviewer)给了 3.5 分,勉强过了标准线。

出人意料的是,论文最终被拒收了,甚至没有被接收为 ACL 2025 的 Findings。

有网友对此回应道,不仅仅是你,这样的论文一大把,只是今年的竞争变得非常激烈。

UT Austin 博士生 Anuj Diwan 深同感受,表示自己的论文收到了 3, 3, 3.5 分,至少应该可以被选为 Findings 论文。

而且元评审也是 3.5 分,甚至给出了「值得被主会议接收」的建议。

然而,事实就是被拒了,自己根本不知道发生了什么。

与此同时,在 Reddit 机器学习子板块上,一大群网友怨声载道,明明成绩很高,却没有上榜。

Vivek 教授表示,可以用「残酷」形容。

比如,一位网友最终元评审 4 分,最终被拒,表示难以置信。另一位说自己拿到了 3,3,4,4.5,以及元评审 4 分也被拒。

让许多人困惑的是,元评审(即讨论后的最终意见)明明很高,却没有得到录用。

谷歌 DeepMind 科学家 Ahmad Beirami 作为一位审稿人,所建议的 3、3.5、4 分的论文被拒绝。

对此,他指出了 ACL 存在两个关键问题:

· 元评审意见与最终决策脱节

负责监督 AC 元评审的高级区域主席(SAC),实际上与最终决策的 SAC 并非同一个人。

最终录用决定,是由程序委员会(PC)根据名额配额,等非技术因素做出。

· 决策评分体系存在逻辑断层

当前评分标准难以处理「证据不足但创新性强」的特殊情况。

比如,核心论文主张未得到充分验证,本应评 2 分,但因创新性突出被推荐至主会,通常对应 4 分。

现行制度却要求,此类论文折中评 3 分(Findings 档),恰恰违背了科学评审的精确性原则。

另一位来自 AI 初创研究主管 Xin Eric Wang,以作者和 AC 双重角度去看 ACL Rolling Review 系统今年启用的全新评审表和评分标准,与往年相比,差异非常大。

一位 CS 博士生称,以往 2.5 分还算及格,现在在这个表格中明显不合格。

ACL 评审标准

根据 ACL Rolling Review 公布的评审表中,审稿人需根据如下标准对论文技术严谨性进行评估。

Overall Assessment(OA)的评分标准如下:

· 5= Consider for Award:我认为这篇论文可以考虑在 ACL 会议上获得杰出论文奖(最多前 2.5% 论文)。

· 4.5 = Borderline Award

· 4 = Conference:我认为这篇论文可以被 ACL 会议接受。

· 3.5 = Borderline Conference

· 3 = Findings:我认为这篇论文可以被 ACL 的 Findings 接受。

· 2.5 = Borderline Findings

· 2 = 下个周期重新提交:我认为这篇论文需要大幅修改,可以在下一个 ARR 周期完成。

· 1.5 = 下下个周期重新提交:我认为这篇论文需要大幅修改,无法在下一个 ARR 周期完成。

· 1 = 不建议重新提交:这篇论文需要完全重写,或者与 ACL 社区无关

网友晒出成绩单

在如此激烈的顶会评选中,同样有不少出彩论文拔得头筹。

这不,已经不少网友晒出了自己的战绩。

来自阿里千问团队郑楚杰激动地宣布,清华博士期间的最后 3 篇论文中榜。

约翰霍普金斯大学黄任泽大获全胜,博士期间所有论文都被接受。ACL 中了 4 篇,ICML 中了 2 篇。

来自微软研究科学家 Xiaoyuan Yi 也有三篇论文被接收。

谷歌高级研究科学家 Raj Dabre 提交了 6 篇论文,共有 4 篇被录用。

同时,他还指出,今年论文筛选变得非常困难,甚至在过程中还存在人为失误的因素。

参考资料:

www.reddit.com/r/MachineLe…

x.com/jeongminby9…

x.com/JentseHuang…

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

ACL 2025 论文投稿 评审机制 学术会议
相关文章