36kr 07月18日 19:39
人类的考试,考验不了AI了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了人工智能在各类考试中展现出的惊人能力,从围棋上的完胜到如今在“人类最后的考试”和高考中的高分表现,AI的智慧已逐渐超越人类。以Grok-4在“人类最后的考试”中取得50.7%的准确率,以及国内大模型在高考模拟测试中取得的优异成绩为例,文章指出AI在智力竞赛中正迅速逼近甚至超越人类顶尖水平。这引发了对人类智慧优越感来源的思考,并预测未来考试形式和AI发展的可能方向。

💡 AI在智力测试中的表现已达到或超越人类顶尖水平,例如AlphaGo击败柯洁,以及Grok-4在“人类最后的考试”中取得50.7%的准确率,这标志着AI在复杂智力任务上的突破。

🎓 国内大模型如DeepSeek和腾讯元宝在模拟高考测试中表现出色,分数可媲美甚至超越部分人类考生,显示出AI在教育领域的巨大潜力,缩小了与人类在传统学术考试上的差距。

⚖️ Grok-4在“人类最后的考试”中的表现与国内大模型在高考中的表现形成鲜明对比,前者在极高难度的综合性考试中达到50.7%,后者在高考中达到高分,两者在不同维度上都展现了AI强大的学习和推理能力。

🤔 文章引发了对人类智慧优越感来源的深层思考,当AI在智力领域不断超越时,人类将如何重新定义自身的价值和优势,以及未来考试和AI发展的方向可能是什么。

🚀 AI在考试中的进步速度惊人,预示着未来AI可能在高考等领域彻底超越人类考生,使得人类在智力竞争中面临新的挑战,需要探索新的评价标准和发展方向。

2017年5月,当时世界围棋排名第一的柯洁惨败于AlphaGo,在机器是否会比人类更聪明这个事关全人类尊严的问题上,我们第一次有了一个 确定 性的答案。 

一年前尚且能赢一局的李世石,成为人类棋手在AI面前最后的夕阳。

不过,人类善于寻找理由,比如将智力转换为更复杂且难以解释的“智慧”,那就显得我们还在赢,还有是更“高级的”赢法。而且作为在智慧这条路径上的先行者,人类可以既做选手又做裁判,给出一套套的测试标准,美其名曰测试AI,AI超过了人类水平,那是人类推动的科技进步,AI没有超过人类,那人类再次赢赢赢。

但“青出于蓝而胜于蓝”这件事,虽然人类希望AI快点做到,可当快到像迎面而来的一阵冰雹猛地砸到脸上时,绝大多数人还是会不适应到懵逼。

最初,我们轻松地用游戏来测试AI,现在,人类能参与地最难的考试,也即将无法用来考验AI了。

在一个周前,马斯克发布了最新版的Grok-4,这款大模型,用老马的话来说,“比所有领域的博士都聪明”。

而其在各项考试中的成绩,可以说是怪物般的存在:

我们比较熟悉的SAT和GRE考试几乎满分,不太熟悉但更难的考试,GPQA(研究生水平问答)准确率为88.9%,AIME25(美国数学邀请赛)准确率为100%,USAMO25(美国数学奥林匹克竞赛)准确率为61.9%。

最引人注目的是“人类最后的考试”(Humanity’s Last Exam,简称“HLM”),听这个名字,大家就能知道它代表的意思。

这个考试是由Scale AI 和 Center for AI Safety(CAIS)发布的,包含3000个高难度的问题,涉及超过100个学科,题目来自数百位不同领域的专家,可以说,这套试题涵盖了人类智力任务中最具挑战性的部分,足以用来衡量AI是否具备“类人智能”。

其中题目分为两类,一类是简答题(Exact-Match Questions),需要输出一个完全匹配的字符串作为答案,另一类是选择题(Multiple-Choice Questions),需要从五个或更多选项中选择一个正确答案。

不过,前者占到了80%,而且数学相关的题目占到了全部问题的42%,所以不要指望碰运气能刷出高分。

来自题库的题目之一,感受一下无知的痛苦吧 

据说,以普通人的水平,大概能答对5%的题目,而当时的大模型也纷纷折戟,没有一个能超过10%。你问人类最多能打多少分?这不重要,反正题目也是人类出的。

但Grok-4的出现,却让AI通过“人类最后的考试”的时间大大缩短了,达到了50.7%的准确率,成为首个突破50%的大模型。

这个分数,高的惊人,但因为考试的难度过大,距离大家的生活又太远,所以很难直观的说明有多难得,不过好在,后来笔者找到了一个差不多所有中国人都能理解的参考系。

在Grok-4发布的差不多同一时间,上海交大联合深势科技团队,使用 DeepSeek-R1-0528 作为驱动智能体的推理模型,在“人类最后的考试”上拿下了32.1%的新纪录,可以说代表着国内大模型的最高水平。(虽然立刻就被赶超了)

而大概一两周之前,国内的大模型正在集体测试另一套“国民考试”——高考试题。

比如,字节跳动Seed 团队就用最新推出的通用模型 Seed1.6 对2025年山东卷高考真题(题目源自网络)进行测试,语数外采用新课标全国Ⅰ卷,其余科目为山东省自主命题,满分750分,并找来了两位来自重点高中、有联考判卷经验的高中老师进行匿名评估和多轮质检。

最终,Seed1.6 在理科和文科分别考取了648和683的高分,这个分数在山东省分别是4005名和211名,理科成绩可以冲击武汉大学,稳妥些也能去华中科技大学;而文科成绩,更是有把握冲击清北,保底也能去上海交大和复旦大学。作为参照的 DeepSeek-R1-0528 ,理科和文科分别考取了615和631,上到985(个别名校除外)下到211也是选择多多。(排名信息及志愿推荐来源:中国教育在线)

也有媒体用国产大模型测试了下高考辽宁卷,显示腾讯元宝(混元T1)文科卷的分数还要更胜一筹,笔者查询了下,其文科成绩排到了全省第11名,属于是清北招生办争相打电话,理科成绩就逊色多了,但上个985还是没问题的。至于DeepSeek,大致是冲击985保底211的水平。

所以,以高考试卷为标准,那么DeepSeek和豆包、混元间几十分的差距,是考上985和考上清北的差距;而以HLM为标准,DeepSeek和 Grok-4 差了接近40%的分值……

“比所有领域的博士都聪明”的真假还不确定,但在刚刚高考完的这一届高三考生中,文科成绩能超过AI的真的不多了。也许下一年,大模型们的高考成绩,就要彻底吊打人类考生了,能考上清北的人被称为天才,但天才努力跨过的门槛,只是AI的保底志愿。

但我更倾向于认为,就像人们对AI在围棋领域对人类的碾压再无兴趣一般,高考,还有其他人类能参与的考试,包括“人类最后的考试”,最终都会呈现AI一边倒的绝对优势,以至于让人习以为常。

可能到时候,人类会制定新的考试,但不再考虑将人类和AI进行对比,而是AI之间纯粹的竞赛;也可能将不存在这样的考试或者变得很少,人们将更关注AI的应用落地和性价比,毕竟人类也好,AI也好,考试都只是过程之一,创造出价值才是最终的目的和结果。

不过到那时,人类在智慧上的优越感,又要靠什么来维持呢?

本文来自微信公众号 “DoNews”(ID:ilovedonews),作者:李信马,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 AI考试 Grok-4 高考 人类智慧
相关文章