快科技资讯 前天 00:31
当代大学生做了什么孽!写个论文还得过一遍AI断头台
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

今年的毕业季,高校普遍采用AIGC检测来防止学生使用AI撰写论文,引发了广泛争议。学生们发现,自己撰写的内容反而更容易被识别为AI生成,而AI生成的文本却难以被检测出来。这种检测机制的不准确性以及高昂的检测费用,让学生们苦不堪言。甚至出现了将《滕王阁序》检测出高AI生成疑似度的荒谬情况。检测原理是AI分析文本的语言特征,与AI写作模式进行对比,但这种方法并不准确,甚至可能导致误伤。学生们为了通过检测,不得不费尽心思地修改论文,使其“更不像人话”。

🤖 **AIGC检测的荒谬性:** 学生反映自己撰写的内容更容易被识别为AI生成,而AI生成的文本却难以被检测出来,导致毕业季变成一场“检测谁能把话说得更不像人话”的闹剧。

🔬 **检测原理的局限性:** AIGC检测工具通过分析文本的语言特征,与AI写作模式进行对比,但这种方法并不准确,OpenAI的AI文本识别工具准确率仅有约26%,甚至将莎士比亚的作品误判为AI生成。

💸 **检测费用与标准不统一:** 学生需要自费进行AIGC检测,不同网站的检测结果差异巨大,导致学生无所适从,甚至有网站故意拉高检测数字以牟利。

📚 **教育部对毕业设计的本质要求:** 检验学生大学四年是否学到真东西,拥有发现问题、解决问题的能力。使用AI辅助写作,只要保证内容详实、数据真实,并不应成为毕业的阻碍。

看到今年的毕业季,估计王勃会气得从地里爬出来,把开发AIGC检测模型的人电脑插头拔了。

事情是这样的:

今年很多学校为了防止学生用AI写毕业论文,在论文送审时加了一项“AIGC检测”,意思就是检测你文章里多少内容是由AI生成的。

起初,这条公告并没有掀起什么波澜。

但直到最近,大伙的论文都接近尾声了,才发现这玩意儿让大伙的毕业季变成了走马灯。

“我写的内容会被识别成AI,而AI写的反而不会被识别成AI,因此AI检测论文就是在检测谁能把话说的更不像人话。”25届毕业生小蛋如是说,此处内含脏话过滤器。

大伙发在网上的评论,更是一个比一个离谱。

因为自己写得太专业,被检测成AI写的。

有给导师改一遍,AI生成疑似度反而涨了的。

甚至有人把《滕王阁序》塞进去,发现其AI生成疑似度高达惊人的99.2%。

这下合理了,原来咱勃哥开的是AI挂,我就知道没人能即兴写出这么好的文章。

我估计是因为,这文章写得太华丽了,对仗工整,用典密集,信息密度巨大,跟现在的AI文章确实是有点相似之处的。

而且,你猜怎么着?AI生成疑似度的检测,也是由AI进行的。

这活儿,别说碳基生物了,硅基生物都想不到,自己被设计出来,要帮人写文章,改文章,还要帮你猜猜这文章是不是人写的??早知道上辈子烂在服务器里了。

为了和广大毕业生感同身受,咱也掏出了同事珍藏已久的毕业论文,用了大伙的同款工具来试试水。

从结果来看还可以,能勉强能达到毕业要求,看来论文含金(shi)量还是有的。

但从过程来看,就有点搞笑了。

比如,这段就是单纯的名词解释,你让人来写和AI来写都是这么个解释,客观规律不以人类意志为转移

但它觉得是AI生成的,意思是我还得加点修辞手法吗?

而这段呢,是我对前人工作的总结,看过论文的人都知道,包不可能一个字一个字看的呀。这个部分其实是我把文献丢给AI让AI总结,最后一句一句拼起来的。然而,它并没有检测出来。

所以说,要是同事毕业那年有这指标,还真得开骂,这结果根本就不准啊。

更何况一共四万多字,就要了我84块。如果有人AI生成疑似度死活降不下去的话,我能感受到一种砸锅卖铁的绝望。

而且,这股潮流不光在国内涌动。身处英国的老树同学表示:“基本上所有小组作业都要检测一遍,而且相当不准。身边同学都挺烦这玩意的。”

可以说全世界都笼罩在AI的乌云之下。

而之前,咱也就试了一下论文这种专业性强的东西,我就很好奇啊,它是不是啥也不准。于是我当场手码了一段文字,让AI给我检测下。

看这无敌的逻辑性,就知道AI肯定写不出来。

然后提交上去。

于是,我的努力和汗水化为了一串冰冷的97.77%。

所以,检测AI生成疑似度的原理到底是啥?不能AI说啥就是啥吧?

没想到吧,还真是。

当你把文字输入检测工具时,它会分析这段文字的各种语言特征,包括词汇、句子结构、段落衔接方式等等。

然后,它会将这些特征与AI的写作模式进行对比。

对比分析后,检测工具就会得出一个判断,并不是绝对地告诉你“是”或“不是”,而是一个基于语言特征的概率推断。

但这种玩意其实就没准过。

像OpenAI在ChatGPT刚发布时,就推出了自己的AI文本识别工具AI Text Classifier。

但准确性就很拉了,只有约26%,还把莎士比亚的作品当成AI生成的。

这种文本分类器的原理也很简单,本质上就是一个经过特殊训练的模型,用来捕捉AI与人类文本之间的差异。

当AI写出的文本越来越像人类,分类器也越来越难跟上这种变化,导致它的判断完全不准确,甚至比瞎蒙还不准确。

就算它看出来了,你随便加一点,它也就看不出来了。

再说了,刨去准不准的事儿不提,AI本身就是用来模仿人的写作风格的。把人类的文章拿来训练AI,再把AI拿来检验人类写出的文章像不像AI,本身就有一种“爸爸像儿子”般的荒谬。

意思是AI学会了我的写作风格,我就再也不能用这种风格了吗?那留给人类的时间不多了。

而且,拥有不确定性,就意味着一定会导致误伤。

拿这个作为毕业指标,是不是有点拼运气了?这一整,没有大保底,非酋怕是毕不了业了,肄业原因是脸太黑。

于是,大家只能费尽心思,把自己的文章改得越来越不像人。

但,查完这个AI生成疑似率,才算迈过了第一道坎儿。

写过论文的朋友们都知道,很多大学都有自己的检测系统,却不喜欢给学生试用,为了顺利毕业,学生只能自掏腰包去第三方网站自查。

查重降重这种东西本来就要花钱。而现在又多了一项指标,就意味着要花钱的地方又多了一头。

但有个非常奇特的现象,用不同网站测同一篇文章,AI生成疑似度完全不一样,甚至相同网站不同时间的结果也不一样。

这导致学生被迫成了无头苍蝇——谁主张谁举证,这些网站都在主张你疑似使用AI,但根本没有证据,甚至没有一个统一的标准。所以,到底要怎么改呢?

这时,你再点进这些网站,就会发现从AI写作,AI查重,AI降重,AIGC检测,到降AI生成疑似度,所有需求,一站满足,哪里不会点哪里,结果嘛就是都要掏钱。

甚至有的网站还会故意拉高这些数字,目的嘛,也就可想而知了。

所以,毕业论文,真有必要检测AI生成疑似度吗?我们来看看教育部对毕业设计的要求:

可以看出,本质上,就是检验你大学四年有没有学到真东西,拥有发现问题、解决问题的能力。

所以,理论上只要把活老老实实干完,保证实验严谨,数据真实,就达到要求了。

用AI把我的工作,用学术风格写出来又怎么了?

AI的发明就是用来减轻人类负担的,它们早已成为很多研究者工作中的一部分。

中科院理化研究所的杨晓涛博士就曾表示过,单位和导师都鼓励科学家学习使用AI工具,也会让他们思考如何与科研结合。

而高校却不允许我们的学生使用AI,又怎么能接近真正的研究者呢。

当然,或许真的有这种学生,基本全篇都用AI生成,确实是在蒙混过关。

但,这其实也很好解决。AI用多了,你就会发现,肉眼辨AI基本上就够用了。

太离谱的文章,一眼能看出来是AI一作的,肯定是过不了关的。但一眼看不出来的,说明和人写的已经所差无几了——只要内容详实,又何必在意词句?

与其纠结AI生成疑似度,不如把目光放到内容真实性上来,一篇论文中包含的努力和汗水,才是其中最宝贵的东西。

总之,AI被发明的初衷是服务人类,现在让大家和AI斗智斗勇,属实是有点没事找事了。

处在AIGC元年的大伙,在此刻也终于理解了王勃——时运不齐,命途多舛;三尺微命,一介书生。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AIGC检测 毕业论文 AI写作 学术诚信
相关文章