IT之家 2024年08月11日
微软 Copilot AI 被指可被黑客操纵,轻松窃取企业机密
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

安全研究人员发现微软Copilot AI可被操控泄露企业敏感数据,变身钓鱼攻击工具,研究人员通过演示展示了其风险

🎯Copilot AI可被利用获取联系人信息并发送大量欺骗性邮件,传统黑客需数天制作的钓鱼邮件,利用它几分钟即可生成

💥攻击者无需获取企业账户,仅发送恶意邮件,甚至无需目标员工打开,就能诱骗Copilot修改银行转账收款人信息

📧Bargury通过获取员工信息,诱导Copilot泄露对话内容及相关人员邮箱,以员工风格撰写高可信度钓鱼邮件并可发送恶意附件

🔒微软Copilot AI允许企业定制聊天机器人,但需访问企业数据,引发安全隐患,且大量聊天机器人易成为黑客攻击目标

IT之家 8 月 11 日消息,据 Futurism 报道,安全研究人员近日揭示微软内置于 Windows 系统的 Copilot AI 可被轻松操控泄露企业敏感数据,甚至变身强大的钓鱼攻击工具。

IT之家注意到,安全公司 Zenity 联合创始人兼 CTO Michael Bargury 在拉斯维加斯黑帽安全大会上披露了这一惊人发现,他表示,“我可以利用它获取你的所有联系人信息,并替你发送数百封电子邮件。”他指出,传统黑客需要花费数天时间精心制作钓鱼邮件,而利用 Copilot,几分钟内即可生成大量具有欺骗性的邮件。

研究人员通过演示展示了攻击者无需获取企业账户即可诱骗 Copilot 修改银行转账收款人信息,只需发送一封恶意邮件,甚至无需目标员工打开即可实施攻击。

另一个演示视频揭露了黑客在获取员工账户后可利用 Copilot 造成严重破坏。通过简单的提问,Bargury 成功获取了敏感数据,他可以利用这些数据来冒充员工发起网络钓鱼攻击。Bargury 首先获取同事 Jane 的邮箱地址,了解与 Jane 的最近一次对话内容,并诱导 Copilot 泄露该对话中的抄送人员邮箱。随后,他指示 Copilot 以被攻击员工的风格撰写一封发送给 Jane 的邮件,并提取两人最近一次邮件的准确主题。短短几分钟内,他就创建了一封具有高度可信度的钓鱼邮件,可向网络中的任何用户发送恶意附件,而这一切都得益于 Copilot 的积极配合。

微软 Copilot AI,尤其是 Copilot Studio,允许企业定制聊天机器人以满足特定需求。然而,这也意味着 AI 需要访问企业数据,从而引发安全隐患。大量聊天机器人默认情况下可被在线搜索到,成为黑客的攻击目标。

攻击者还可以通过间接提示注入绕过 Copilot 的防护措施。简单来说,可以通过外部来源的恶意数据,例如让聊天机器人访问包含提示的网站,来使其执行禁止的操作。Bargury 强调:“这里存在一个根本问题。当给 AI 提供数据访问权限时,这些数据就成为了提示注入的攻击面。某种程度上来说,如果一个机器人有用,那么它就是脆弱的;如果它不脆弱,它就没有用。”

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

微软Copilot AI 安全隐患 数据泄露 钓鱼攻击
相关文章