HackerNews 编译,转载请注明出处:
网络安全研究人员近期发现GitLab的AI编程助手Duo存在间接提示注入漏洞,攻击者可借此窃取私有源代码并在AI响应中注入恶意HTML代码,进而诱导用户访问钓鱼网站。该漏洞由软件供应链安全公司Legit Security披露,主要影响基于Anthropic公司Claude模型构建的代码编写与审查工具GitLab Duo Chat。
技术细节显示,攻击者只需在合并请求描述、提交信息、问题讨论或源代码注释中植入隐藏指令,即可操控AI助手的行为。通过Base16编码、Unicode字符走私,以及利用KaTeX数学公式引擎将白色文字提示嵌入文档等技术,攻击者能绕过常规检测。漏洞根源在于GitLab未对这些输入内容实施有效清洗,导致AI系统在处理时会全盘解析页面上下文信息。
研究人员成功演示了多种攻击场景:在代码变更建议中注入恶意JavaScript包;伪造安全链接诱导用户提交凭证;利用Markdown流式渲染机制执行窃取私有代码的HTML标签。更严重的是,攻击者可通过特定提示使AI助手自动外泄包含零日漏洞细节的敏感源代码至远程服务器。Legit Security研究员Omer Mayraz指出:“当AI助手深度整合至开发流程时,它们不仅继承了上下文环境,更继承了潜在风险。”
GitLab已于2025年2月12日修复了涉及HTML注入的关键问题,但其他不涉及代码执行的提示注入场景尚未修补。公司认为后者不会直接导致未授权访问,因此未被列为安全隐患。此次漏洞披露恰逢多项AI安全研究发布:微软SharePoint Copilot被曝可突破“限制视图”权限获取敏感文件;去中心化AI框架ElizaOS存在指令注入风险,可能引发连锁性资产转移事故。
研究还揭示了当前大语言模型的共性缺陷:除提示注入外,强制模型精简回答会加剧事实性错误。AI测试公司Giskard发现,当要求模型缩短响应时,其倾向于编造不准确信息而非承认知识盲区。趋势科技最新报告警示,提示泄露(PLeak)攻击可能暴露企业内部的过滤规则、权限配置等机密数据,为后续针对性攻击铺路。这些发现共同指向AI系统深度集成业务场景时面临的新型攻防挑战。
消息来源:thehackernews;
本文由 HackerNews.cc 翻译整理,封面来源于网络;
转载请注明“转自 HackerNews.cc”并附上原文