智源社区 2024年12月05日
ICLR审稿集体搞抽象!评审结果写半句,还有的求ta也不审,网友:科研人自己的春晚
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

ICLR 2025 论文评审过程引发广泛关注,大量作者吐槽审稿人奇葩操作,例如评审内容含糊不清、评分标准不一、审稿人突然否定领域等。今年 ICLR 论文提交数量创历史新高,官方引入 AI 辅助审稿,但并未完全解决问题。部分审稿人评分随意、不负责任,导致一些论文评分极低,甚至出现 4 个 10 分与 3 个 Poor 分并存的情况。此外,审稿人回复不及时、沟通不畅等问题也引发作者不满,被网友戏称为“乞讨式”ICLR。文章探讨了 ICLR 2025 审稿乱象背后的原因,包括论文数量激增、审稿人质量参差不齐、评分标准模糊等,并引发了对 AI 审稿的讨论和对科学评估体系的反思。

🤔**论文数量激增,审稿压力倍增:**ICLR 2025 论文提交数量达到 11000 多篇,同比增长 61%,审稿人数量也随之增加到 15000 多名,工作量大幅提升,导致部分审稿人态度敷衍,评审质量参差不齐。

🤯**AI 辅助审稿,成效仍待观察:**为了提高审稿效率和质量,ICLR 引入 AI Agent 辅助审稿,但其作用并非完全替代人工,主要提供建设性反馈,帮助审稿人改进评审意见,但并未解决审稿人回复不及时、评分标准不一的问题。

🤨**评分标准模糊,引发争议:**ICLR 2025 出现评分极端化现象,例如 4 个 10 分与 3 个 Poor 分同时存在,以及审稿人突然否定领域,导致部分作者不满,引发了对 ICLR 评分标准和科学评估体系的质疑。

💬**审稿人沟通不畅,作者体验不佳:**部分审稿人回复不及时、沟通不畅,甚至已读不回,导致作者多次沟通无果,引发作者不满,被网友戏称为“乞讨式”ICLR。

🤔**AI 审稿未来,仍需探索:**一些网友期待未来出现超级强大的 AI 模型,可以完全替代人工审稿,减轻审稿负担,但目前 AI 审稿技术仍需不断发展和完善。

今天,ICLR 2025的discussion phase的ddl已经截止。回看过去14天的讨论过程,可太精彩了!

各大平台上随手一翻就是作者们的吐槽大会,都在无语这届ICLR评审的各种奇葩乱象

譬如UCSB博士生@JiachenLi11 就在推特上非常之无奈:

我收到的评审内容,低到令人担忧——其中一条评审甚至话都没说完。难道审稿人的tokens用完了吗???

图源推友@JiachenLi11

你还真别说,他这个“tokens用完”的吐槽并不是空穴来风——

ICLR 2025的论文提交数前所未有地高,约有11000篇。

为了提升审稿速度和质量,ICLR今年引入了AI参与审稿工作

当然了,倒也不是单一AI,是多个AI大模型组成的Agent。

然而,你以为审稿人话不写完评审内容就点发送,就是ICLR 2025的全部槽点了吗?

ICLR吐槽大赏

要细数今年ICLR 2025的神奇事件,咱们先从最广为人知的一件说起:

[10,10,10,10]和3个poor得分并存

今年的ICLR出现了一篇4个审稿人同时打出了10分的论文

假如这个分数能保持到中稿通知,这将是近5年来,ICLR的唯一一篇满分作文。

论文题目如下图,是一个叫IC-Light(全称Imposing Consistent Light)项目,是关于控制图像照明的。

作者张吕敏,也是大名鼎鼎的ControlNet的作者。

他在苏州大学拿到学士学位后,去往斯坦福读博。

IC-Light可以随意控制照片主体的光源和背景,将主体、光源、背景三者迅速地融合在一张图片里。

半年前,IC-Light就在GitHub上开源,现在共6.5k星。

与此同时,ICLR 2025还出现了几篇,某一审稿人给某篇论文全打1分的论文。

这里我们打断一下,了解一下ICLR的评分体系:

    1分:太差了

    3分:拒绝

    5分:婉拒了哈

    6分:接……吧

    8分:接收

    10分:强接收

就拿其中一篇来说吧,看到这个结果给作者气的,写了一篇十几页的strong rebuttal

那审稿人为什么给人家Soundness、Presentation、Contributions都给了1分?

审稿人言辞非常犀利,直呼Paper Writing is quite bad,然后还毫不客气地提问:“Is there a human author on this paper?”

审稿人还表示,(这也是全部最低分的最重要一点),我们是可以判断一篇论文是人写的还是AI写的,“也许您在生成文本时没有进行基本的连贯性检查”。

作者继续输出长篇大论rebuttal,并回击“我可真钦佩你识别AI的能力”。

作者5页回应,审稿人在ddl突然否定领域

一位在北大CS读博的小某书网友@Kevin 对审稿人的神操作大吐苦水。

事情是这样的,ICLR不是共14天用来discussion phase嘛。

这14天里,有一位审稿人5,一共对他所在团队提交的paper提出了10个问题。

团队认真回复了整整五页,审稿人5已读不回。

团队多次希望与其讨论,审稿人5已读不回。

总之就是一整个石沉大海。

到了昨天,也就是discussion phase的最后一天,“审稿人5突然否定这个领域,并将5分改为3分”。

@Kevin非常不理解为什么审稿人这样做的意图。

真的就,令人心碎的discussion phase。

“你需要引用另一篇ICLR 2025投稿”

推友@PandaAshwinee(普林斯顿博士毕业,现在在Trails.ai从事博后工作)给看热闹的网友们画了个自己接收到的评审内容的亮点:

你需要引用另一篇ICLR 2025的投稿。

展开说说,就是审稿人链接了ICLR 2025 openreview的另外一篇论文,表示两个项目高度相关,所以小哥应该引用。

但是哭啊,小哥查过了,要求被引的论文根本不在arXiv上

而且这不是他第一次感觉“天塌了”——他在评论区补充,之前他的项目在ICML 2024被拒,主要原因也是“与另一篇ICML 2024投稿高度相似”。

不过ICLR很快在小哥推文下面回复了,表达程序主席开始调查这个事儿。

“乞讨式”ICLR

前面提到的都是审稿人和作者有来有回(哪怕回得慢)的激情battle,更有意思的事是,无论国内还是国外,很多人都把这届称为“乞讨式”ICLR。

简而言之,就是审稿人一直不给评审不给分

有人上个月下旬的时候,就开始给所有AC(区域主席)发了邮件,要求他们提醒审稿人回复作者。

或者至少确认审稿人们知道自己还得干这活。

当时就有网友提醒“最坏的打算”,有的审稿人会拖到最后一刻,因为他们也在为自己措辞……

果不其然,单看国内,昨天开始24h内倒计时了,很多作者还在恳求审稿人快快评审,快快给分。

哎。

对作者的奇怪请求

在Google DeepMind工作的Ahmad Beirami(@abeirami)分享了一则讯息:

发到推特上后,有ICLR作者表示出了疑惑:

如果作者们写了这玩意儿,是否真的对审稿有帮助?

他觉得这“可能是在浪费时间”,因为审稿人完全可能看都不看,直接去看paper原文。一切都是徒劳的。

不过Ahmad很快回复了这位作者:

Yes!
作为一名AC,我想确保我没有从作者的角度遗漏任何内容。可能会有很多变化、新结果等。我想确保我知道在哪里找到它们,以便能够形成观点,判断一些原始评论/关注是否适用。

得到这个答复后,作者小哥很愉快地去添加注释去了。

ICLR 2025为何这样

以上种种,只是大家或身在其中/或围观看热闹的ICLR 2025的一点点故事而已。

但,身为权威顶会,为什么会这样?

有的人认为和今年的稿件数量有关。

官方数据显示,ICLR 2025的论文提交数量达到了11,000多篇,同比增长61%。

而去年ICLR 2024组委会收到的投稿总数为7,262篇——当然了,对那时候的ICLR来说也是不小的工作量,同比增长了47%。

今年,面对如此庞大的论文数量,审稿人数量高达15,000多名。

这还不够,官方还引入了多个AI大模型构成的Agent来参与审稿。但它的功用不是完全替代审稿人,它不会撰写审稿评论或直接编辑评论,而是提供建设性和可操作性的反馈,帮助审稿人提高审稿质量。

这个Agent针对审稿中可能存在的三类问题提供建议:

    鼓励审稿人改写含糊的评论,使其对作者更具可操作性;

    突出文章中可能已经回答了审稿人问题的部分;

    发现并处理不专业、不恰当的言论。

但很多作者认为,稿件数量激增确实加大了工作量,Agent的辅助无可厚非,但绝不是ICLR变成被看热闹的“科研春晚”的原因。

一方面,Agent提出的建议,审稿人是可以选择接受或者忽略不管的。

另一方面,极速扩张的审稿人中,是否有人并不是适合评审工作?

再一方面,为了确保审稿质量,每位审稿人平均分配3篇论文,顶天了看4篇,工作量并不是超负荷状态。

除了有点混乱以外,另一个被网友们激烈讨论的点,集中在这届ICLR的分数上。

一般来说,ICLR的传统接收率在30%左右,然后今年ICLR的排名前30%的论文,平均评分约为5.6。

前面我们介绍了,6分算是一个勉勉强强的分数,属于论文被接收的边缘门槛。

这就意味着“低于‘边缘接受’门槛的论文将被接收”。

网友谈道,“当会议接受变得如此随意时,我们正在破坏整个科学评估系统——这影响到AI研究整体的完整性。

在此基础上,他提出了三点自己的思考,希望ICLR应有更严格和公平的程序。

当然,也有另一种声音:

期待一些超级强大到无懈可击的大模型出现,让它们充当审稿人,解决上述所有问题,以此帮助减轻审稿的负担。

只是不知道这一天什么时候会到来了。

参考链接:
[1]
https://x.com/mo_danesh/status/1863964693687107823
[2]https://x.com/JiachenLi11/status/1856472250636964350
[3]https://x.com/Yuchenj_UW/status/1862541099136651536
[4]https://x.com/abeirami/status/1863629237741064608
[5]https://x.com/PandaAshwinee/status/1856384624873570749
[6]https://x.com/ysu_nlp/status/1860504185583648863
[7]https://openreview.net/group?id=ICLR.cc/2025/Workshop_Proposals#tab-accept

12月11日

「MEET2025智能未来大会」报名啦

李开复博士、周志华教授、智源研究院王仲远院长都来量子位MEET2025智能未来大会探讨行业破局之道了!

? 最新嘉宾阵容在此点击报名参会欢迎来到MEET智能未来大会,期待与您一起预见智能科技新未来!

左右滑动查看最新嘉宾阵容

点这里?关注我,记得标星哦~

一键三连「点赞」、「分享」和「在看」

科技前沿进展日日相见 ~ 

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

ICLR AI审稿 论文评审 机器学习 科研
相关文章