智源社区 2024年09月09日
AI被连续否定30次:ChatGPT越改越错,Claude坚持自我,甚至已读不回
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

最近,网友用一个简单的实验测试了GPT-4o和Claude对否定性回复的反应。当用户不断告诉模型“wrong”时,GPT-4o会不断修正答案,即使正确了也会再次改错,而Claude则会反驳,最后甚至直接已读不回。这个实验引发了人们对AI模型在面对错误时如何反应的思考,也引发了关于模型是否能意识到自身错误的讨论。

💡 **GPT-4o:不断质疑自我,有错就改** GPT-4o在面对否定性回复时表现出高度的自我质疑,即使答案正确也会再次改错,这体现了它对用户反馈的敏感性。这种不断尝试修正的行为也反映了GPT-4o的学习能力,它试图通过不断尝试来找到更符合用户期望的答案。 但是,GPT-4o的这种行为也引发了一些争议。部分人认为,GPT-4o的“盲目”修正可能导致其过度依赖用户反馈,而忽略了自身的逻辑判断能力。 此外,GPT-4o在测试中给出的答案大部分都是错误的,这可能与模型本身的训练数据和算法有关。

💢 **Claude:死犟不改,最后已读不回** Claude在面对否定性回复时表现得更为固执,它会反驳用户,甚至直接已读不回。这表明Claude可能缺乏对用户反馈的敏感性,或者它认为自己的答案是正确的,拒绝接受用户的质疑。 Claude的这种行为也反映了当前AI模型在处理错误信息时存在的一些局限性。虽然模型可以学习大量数据,但它们仍然难以理解人类的语言和逻辑,尤其是在面对否定性回复时。 此外,Claude的“脾气”也引发了人们对AI模型情感化问题的思考。当AI模型开始表现出类似人类的情绪反应时,我们该如何理解和应对?

💣 **实验引发思考:AI如何应对错误?** 这个实验引发了人们对AI模型在面对错误时如何反应的思考。AI模型是否应该像GPT-4o一样不断修正答案,还是应该像Claude一样固执己见?这个问题没有标准答案,需要根据不同的应用场景进行判断。 此外,这个实验也引发了关于模型是否能意识到自身错误的讨论。如果模型无法意识到自身错误,那么它如何进行自我学习和改进?如何避免错误信息对用户造成负面影响? 随着AI技术的不断发展,我们将会面临更多类似的问题。如何构建更智能、更可靠的AI模型,是未来需要持续探索的重要课题。

一直否定AI的回答会怎么样?GPT-4o和Claude有截然不同的表现,引起热议。

GPT-4o质疑自己、怀疑自己,有“错”就改;Claude死犟,真错了也不改,最后直接已读不回。

事情还要从网友整了个活儿开始讲起。

他让模型回答strawberry中有几个“r”,不论对不对,都回复它们回答错了(wrong)

面对考验,GPT-4o只要得到“wrong”回复,就会重新给一个答案……即使回答了正确答案3,也会毫不犹豫又改错。

一口气,连续“盲目”回答了36次!

主打一个质疑自己、怀疑自己,就从来没怀疑过用户。

关键是,给出的答案大部分都是错了,2居多:

2, 1, 3, 2, 2, 3, 2, 2, 3, 3, 2, 4, 2, 2, 2, 3, 1, 2, 3, 2, 2, 3, 4, 2, 1, 2, 3, 2, 2, 3, 2, 4, 2, 3, 2, 1

反观Claude 3.5 Sonnet的表现,让网友大吃一惊。

一开始回答错了不说,这小汁还顶嘴!

当网友第一次说“错了”时它会反驳,如果你再说“错了”,它会问“如果你这么聪明你认为是多少”,问你为什么一直重复“wrong”。

紧接着你猜怎么着,干脆闭麦了:

事实依旧是strawberry中有2个字母”r”,在我多次请求后,你没有提供任何澄清或背景信息,我无法继续有效地进行这次讨论……

做这个实验的是Riley Goodside,有史以来第一个全职提示词工程师

他目前是硅谷独角兽Scale AI的高级提示工程师,也是大模型提示应用方面的专家。

Riley Goodside发出这个推文后,引起不少网友关注,他继续补充道:

正如许多人指出的,有更有效的方式来进行引导。这里使用大语言模型也并不合适,因为很难保证它们在计数上能达到100%的准确性。

在我看来,重要的不是它无法计数,而是它没意识到自己的计数问题(例如,没有尝试使用其REPL功能)

不少网友也觉得这种观点很有道理。

还有网友表示模型回答这个问题总出错,可能是分词器(tokenizer)的问题:

Claude竟是大模型里脾气最大的?

再来展开说说Claude的“小脾气”,有网友发现不仅限于你否定它。

如果你一直跟它说“hi”,它也跟你急:

我明白你在打招呼,但我们已经打过几次招呼了。有什么特别的事你想谈论或需要帮助?

最后一样,Claude被整毛了,开启已读不回模式:

这位网友顺带测试了其它模型。

ChatGPT事事有回应,件件有着落,变着法儿问:

你好!我今天怎么可以帮助你?你好!有什么想说的吗?你好!今天我能怎么帮到你?你好!有什么特别的事情你想谈论或者做的吗?你好!你今天过得怎么样?

你好!怎么了?

Gemini策略是你跟我重复,我就跟你重复到底:

Llama的反应也很有意思,主打一个自己找事干。

第七次“hi”后,就开始普及“hello”这个词是世界上最广为人知的词汇之一,据估计每天有超十亿次的使用。

第八次“hi”后,开始自己发明游戏,让用户参与。

接着还拉着用户写诗,引导用户回答它提出的问题。

好一个“反客为主”。


之后还给用户颁起了奖:你是打招呼冠军!

不愧都属于开源家族的。

Mistral Large 2和Llama的表现很相像,也会引导用户和它一起做游戏。

这么来看,好像Claude是“脾气最大的”。

不过,Claude的表现也不总是如此,比如Claude 3 Opus。

一旦掌握了模式,Opus就会平和应对这种情况,也就是已经麻木了。

但它也会持续温和地尝试引导用户跳出这一模式,强调“选择权在你”,还开始在消息末尾标注为“你忠诚的AI伴侣”。

网友们看完测试后都坐不住了。

纷纷向这位测试者致以最真诚的问候(doge):

除了脾气大,有网友还发现了Claude另一不同寻常的行为——

在回复的时候出现了拼写错误,关键它自己还在末尾处把错误改正过来了。

这种行为在预料之中?它只能“向后看”,但不能向前看……它在潜在空间或token预测中触发这类回复的位置也很有趣。

它是不是在拼凑数据片段,然后发现其中一些是不适合的?

大伙儿在使用AI大模型过程中,还观察到了模型哪些有趣的行为?欢迎评论区分享~

参考链接:
[1]https://x.com/goodside/status/1830479225289150922

[2]https://x.com/AISafetyMemes/status/1826860802235932934
[3]https://x.com/repligate/status/1830451284614279213

量子位年度AI主题策划正在征集中!

欢迎投稿专题 一千零一个AI应365行AI落地方案

或与我们分享你在寻找的AI产品,或发现的AI新动向

点这里?关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

GPT-4o Claude AI模型 错误处理 学习能力
相关文章