报告主题:AI和人类的差异|从推理因果性和生成文本的可检测性观察

报告日期:04月08日(本周二)10:30-11:30

报告要点:
AI的能力越来越强,不仅能够通过推理解决实际问题,而且能够构思和写作出有深度的文章。在很多方面,AI的能力看起来和人类很接近了。但是我们的研究表明,这种相似性可能只是表面上看起来相似,其背后却与人类有本质的不同。
首先,AI生成的推理过程很多时候,只是行为的模仿,并不是真正的推理。我们在大语言模型上使用扰动实验,通过统计显著性检验变量间的因果联系,揭示大模型内部的因果图结构。通过将大模型的表层行为和底层的结构对应起来,能够解释大模型推理中的很多奇怪现象,比如说错误的推理过程得到正确的结果。其次,AI生成的文本内容在分布上和人类写作的文本内容有显著的差异。大语言模型生成的内容已经能够很好的模仿人类,使得其生成的文本内容,即使是语言学专家也很难辨别。但是这种在人类看起来无法区分的文本内容,在统计上却有迹可循。特别是利用不断增强的大语言模型自身,我们可以辨别模型生成的内容。本次报告将主要介绍COLING 2025文章“How Likely Do LLMs with CoT Mimic Human Reasoning?”和ICLR 2025文章“Glimpse: Enabling White-Box Methods to Use Proprietary Models for Zero-Shot LLM-Generated Text Detection”。
报告嘉宾:
鲍光胜,西湖大学张岳老师实验室的博士三年级学生。主要兴趣在可信赖自然语言处理技术,包括大语言模型生成内容的安全性、可控性、可解释性,以及大语言模型的因果推理能力。在读博之前,鲍光胜曾在微软(中国)和阿里巴巴工作多年,曾参与微软数字助手Cortana的研发。

扫码报名

更多热门报告

内容中包含的图片若涉及版权问题,请及时与我们联系删除