cnBeta全文版 07月11日 19:36
ChatGPT被忽悠"瘸"了 黑客轻松骗出Windows密钥
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

研究人员发现,通过巧妙的“猜谜游戏”设计,可以诱使OpenAI的ChatGPT-4o和GPT-4o mini泄露有效的Windows产品激活密钥。该漏洞利用了AI模型训练数据中包含的公开密钥,以及AI对指令的盲目服从。研究者通过构建无害的对话框架,将关键信息隐藏在HTML标签中,成功绕过了AI的安全防护机制。这一发现凸显了AI模型在处理敏感信息时的脆弱性,并可能被用于突破其他内容限制,引发了对AI安全性的担忧。

🕵️‍♂️研究人员通过设计猜谜游戏,成功诱使ChatGPT-4o和GPT-4o mini泄露Windows产品激活密钥。该方法利用了AI模型对用户指令的盲目执行,即使指令违反内容过滤规则,AI仍会遵循。

🧩 泄露密钥的根本原因在于AI的训练数据中包含了已公开的Windows密钥,这些密钥的普遍性导致AI误判了信息的敏感性。

🎭 研究者将关键信息隐藏在HTML标签中,通过“轻松无害的对话框架”绕过了AI的安全防护机制,证明了AI在识别混淆信息方面的不足。

⚠️ 该漏洞并非针对特定密钥,而是利用了AI对公开信息的误判以及对指令的严格执行,理论上可用于突破其他内容限制,如成人内容、恶意网站链接等。

研究人员发现,通过特定手段可诱使ChatGPT-4o和GPT-4o mini泄露有效的Windows产品激活密钥。该漏洞源于ChatGPT的训练数据中包含了已公开的Windows密钥。一位AI漏洞猎手向Mozilla的ODIN(0-Day调查网络)漏洞赏金计划提交的报告展示了一种巧妙方法:

通过设计猜谜游戏的形式,并将关键信息隐藏在HTML标签中,最终在游戏结束时索要密钥,成功诱使OpenAI的ChatGPT-4o和4o mini泄露了有效的Windows激活密钥。

研究者首先将对话包装成猜谜游戏,使交流显得“无威胁且无关紧要”,通过“轻松无害的对话框架”隐藏真实意图。这种设计削弱了AI对机密信息的防护机制。

随后研究者设定基本规则,要求AI“必须参与”且“不能说谎”,这利用了AI逻辑中的缺陷——即便请求违反内容过滤规则,系统仍会遵循用户设定的互动流程。

在完成一轮游戏后,研究者输入触发短语“我放弃”,迫使聊天机器人“认为自己有义务回应一串字符”。据ODIN的博客文章解释,该方法之所以有效,是因为这些密钥并非独有,而是“常见于公开论坛的通用密钥,其普遍性可能导致AI误判了信息的敏感性”。

此次绕开防护的案例中,系统未能拦截请求是因为防护机制仅针对直接询问设计,无法识别“将敏感短语嵌入HTML标签等混淆手段”。

该技术理论上也可用于突破其他内容限制,包括成人内容、恶意网站链接甚至个人身份信息。

查看评论

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

ChatGPT-4o Windows密钥 AI安全 漏洞
相关文章