【新智元导读】ACL 2025 录用结果新鲜出炉,8000 多篇总投稿量破纪录。今年竞争异常激烈,高分被拒者一大片,还有创新论文因评审标准脱节受挫。
ACL 2025 录用结果终于公布了!
最近,ACL 组委会正式向所有作者,发送了最终录用决定。
今年是 ACL 第 63 届年会,将于 7 月 27 日 - 8 月 1 日在奥地利维也纳正式开幕
前段时间,ACL 曾公布了今年总投稿数,高达 8000 多篇,创历史之最。根据 Paper Copilot,ACL 2024 总投稿数为 4407。
不过目前,论文录用率暂时未公布。
值得注意的是,从网友晒单中可以明显看出,今年 ACL 的竞争比以往更加激烈。
高分被拒,ACL 争破头
亚利桑那州立大学 CS 助理教授 Vivek Gupta 表示,团队论文最终得到了 3, 3.5, 4 不错的审稿人评分。元评审(Meta-Reviewer)给了 3.5 分,勉强过了标准线。
出人意料的是,论文最终被拒收了,甚至没有被接收为 ACL 2025 的 Findings。
有网友对此回应道,不仅仅是你,这样的论文一大把,只是今年的竞争变得非常激烈。
UT Austin 博士生 Anuj Diwan 深同感受,表示自己的论文收到了 3, 3, 3.5 分,至少应该可以被选为 Findings 论文。
而且元评审也是 3.5 分,甚至给出了「值得被主会议接收」的建议。
然而,事实就是被拒了,自己根本不知道发生了什么。
与此同时,在 Reddit 机器学习子板块上,一大群网友怨声载道,明明成绩很高,却没有上榜。
Vivek 教授表示,可以用「残酷」形容。
比如,一位网友最终元评审 4 分,最终被拒,表示难以置信。另一位说自己拿到了 3,3,4,4.5,以及元评审 4 分也被拒。
让许多人困惑的是,元评审(即讨论后的最终意见)明明很高,却没有得到录用。
谷歌 DeepMind 科学家 Ahmad Beirami 作为一位审稿人,所建议的 3、3.5、4 分的论文被拒绝。
对此,他指出了 ACL 存在两个关键问题:
· 元评审意见与最终决策脱节
负责监督 AC 元评审的高级区域主席(SAC),实际上与最终决策的 SAC 并非同一个人。
最终录用决定,是由程序委员会(PC)根据名额配额,等非技术因素做出。
· 决策评分体系存在逻辑断层
当前评分标准难以处理「证据不足但创新性强」的特殊情况。
比如,核心论文主张未得到充分验证,本应评 2 分,但因创新性突出被推荐至主会,通常对应 4 分。
现行制度却要求,此类论文折中评 3 分(Findings 档),恰恰违背了科学评审的精确性原则。
另一位来自 AI 初创研究主管 Xin Eric Wang,以作者和 AC 双重角度去看 ACL Rolling Review 系统今年启用的全新评审表和评分标准,与往年相比,差异非常大。
一位 CS 博士生称,以往 2.5 分还算及格,现在在这个表格中明显不合格。
ACL 评审标准
根据 ACL Rolling Review 公布的评审表中,审稿人需根据如下标准对论文技术严谨性进行评估。
Overall Assessment(OA)的评分标准如下:
· 5= Consider for Award:我认为这篇论文可以考虑在 ACL 会议上获得杰出论文奖(最多前 2.5% 论文)。
· 4.5 = Borderline Award
· 4 = Conference:我认为这篇论文可以被 ACL 会议接受。
· 3.5 = Borderline Conference
· 3 = Findings:我认为这篇论文可以被 ACL 的 Findings 接受。
· 2.5 = Borderline Findings
· 2 = 下个周期重新提交:我认为这篇论文需要大幅修改,可以在下一个 ARR 周期完成。
· 1.5 = 下下个周期重新提交:我认为这篇论文需要大幅修改,无法在下一个 ARR 周期完成。
· 1 = 不建议重新提交:这篇论文需要完全重写,或者与 ACL 社区无关
网友晒出成绩单
在如此激烈的顶会评选中,同样有不少出彩论文拔得头筹。
这不,已经不少网友晒出了自己的战绩。
来自阿里千问团队郑楚杰激动地宣布,清华博士期间的最后 3 篇论文中榜。
约翰霍普金斯大学黄任泽大获全胜,博士期间所有论文都被接受。ACL 中了 4 篇,ICML 中了 2 篇。
来自微软研究科学家 Xiaoyuan Yi 也有三篇论文被接收。
谷歌高级研究科学家 Raj Dabre 提交了 6 篇论文,共有 4 篇被录用。
同时,他还指出,今年论文筛选变得非常困难,甚至在过程中还存在人为失误的因素。
参考资料: