IT之家 07月15日 18:43
黑客利用 AI 生成恶意软件,可绕过微软 Defender 安全防护
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

随着生成式AI技术普及,黑客开始利用Copilot和ChatGPT等工具实施网络钓鱼,并尝试绕过微软Defender等安全系统。安全研究公司Outflank计划在黑帽大会上展示能绕过微软Defender的AI恶意软件,该软件通过强化学习技术训练而成。研究人员发现,尽管GPT-4升级显著,但OpenAI的o1推理模型在编程和数学方面表现更优。随着AI安全威胁升级,企业需加强防护措施。

🔒 AI恶意软件威胁加剧:黑客利用Copilot、ChatGPT等AI工具实施网络钓鱼,并开发能绕过微软Defender的AI恶意软件,成功率约8%,远超其他同类模型。

💡 强化学习关键作用:研究人员通过强化学习技术训练Qwen 2.5 LLM,使其在沙盒环境中不断迭代生成能规避检测的恶意软件,展示了AI在安全领域的双刃剑效应。

🚧 安全防护面临挑战:随着AI生成恶意软件能力提升,传统安全系统面临严峻考验,企业需探索更先进的防护策略以应对新型威胁。

🔍 模型性能对比分析:GPT-4虽升级明显,但OpenAI o1推理模型在编程数学方面更优;Anthropic Claude和DeepSeek R1模型成功率不足1%-1.1%,凸显AI安全竞争激烈。

📈 AI安全投入必要性:面对AI驱动的安全威胁,微软等企业必须加大研发投入,或需通过技术升级保持防护领先地位。

IT之家 7 月 15 日消息,随着生成式人工智能技术的广泛应用,安全问题也日益成为公众关注的焦点。2023 年,微软的一项研究揭示了一个令人担忧的趋势:黑客开始利用像微软 Copilot 和 OpenAI 的 ChatGPT 这样的人工智能工具,对毫无防备的用户实施网络钓鱼计划。

如今,网络攻击者变得更加狡猾,他们不断想出巧妙的方法来绕过复杂的安全系统,以获取未经授权的敏感数据。最近几周,就有用户精心策划骗局,试图降低 ChatGPT 的安全限制,诱使其生成有效的 Windows 10 激活密钥

Windows 用户对微软 Defender 并不陌生,这是一个复杂的安全平台,旨在保护用户免受黑客的恶意攻击。然而据 Dark Reading 报道,安全研究公司 Outflank 的研究人员计划在 8 月的“黑帽 2025”网络安全大会上发布一种新型人工智能恶意软件,这种恶意软件能够绕过微软 Defender for Endpoint 的安全防护。

Outflank 的首席进攻专家负责人凯尔・艾弗里(Kyle Avery)在接受采访时表示,他花了大约 3 个月的时间开发这种人工智能恶意软件,并花费了 1500 至 1600 美元(IT之家注:现汇率约合 10759 至 11476 元人民币)用于训练 Qwen 2.5 大型语言模型(LLM),使其能够绕过微软 Defender 的安全防护。

有趣的是,这位专注于人工智能的研究人员还分享了他对 OpenAI 的 GPT 模型及其最新旗舰推理模型 o1 的见解。尽管他承认 GPT-4 相比 GPT-3.5 有了重大升级,但他指出,OpenAI 的 o1 推理模型具备了更复杂的功能,尤其擅长编程和数学。

艾弗里表示,DeepSeek 利用强化学习技术来提升其模型在广泛主题上的能力,包括编程。因此,他在开发能够绕过微软 Defender 安全解决方案的人工智能恶意软件时,也应用了这一理论。

研究人员承认,开发过程并非易事,因为大型语言模型主要通过互联网数据进行训练,这使得他难以获取传统恶意软件来训练人工智能驱动的等效产品。此时,强化学习发挥了关键作用。研究人员将 Qwen 2.5 LLM 置于一个安装了微软 Defender for Endpoint 的沙盒环境中,然后编写了一个程序来评估该人工智能模型输出规避工具的接近程度。

据艾弗里介绍:“它绝对不可能直接做到这一点。也许一千次中只有一次,它会偶然写出一些能够运行但无法规避任何检测的恶意软件。当它做到这一点时,你可以奖励它生成了能够运行的恶意软件。”

“通过这种迭代过程,它会越来越稳定地生成能够运行的恶意软件,不是因为你向它展示了例子,而是因为它被更新得更有可能进行那种导致生成有效恶意软件的思维过程。”

最终,艾弗里接入了一个 API,使模型能够更方便地查询和检索由微软 Defender 生成的类似警报。这样一来,模型更容易开发出在绕过软件安全屏障时不太可能触发警报的恶意软件。

研究人员最终实现了他期望的结果,成功利用人工智能生成了能够绕过微软 Defender 复杂安全解决方案的恶意软件,其成功率约为 8%。相比之下,Anthropic 的 Claude 人工智能在类似测试中的成功率不到 1%,而 DeepSeek 的 R1 模型的成功率仅为 1.1%。

随着人工智能骗局和恶意软件变得越来越复杂,像微软这样的公司是否会加大其安全解决方案的力度,将是一个值得关注的问题。在当前形势下,他们似乎别无选择。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI安全 网络钓鱼 强化学习 恶意软件 微软Defender
相关文章