AI面临的头号威胁:投毒攻击
过去,业界针对AI系统的“投毒攻击”并不重视,软件公司Splunk曾在《2024年安全状态报告》指出:“AI中毒仍然是一种可能性,但尚未普及。”
但是安全专家们警告CISO加强戒备,因为有迹象表明黑客正越来越多地瞄准AI系统,尤其是通过破坏数据或模型来进行投毒攻击,各种规模和类型的企业都可能成为攻击目标。
咨询公司Protiviti透露,该公司的一家客户企业近日遭遇了投毒攻击:黑客试图通过投喂恶意输入数据来操纵该公司AI系统的输出结果。
Protiviti指出:“所有企业,无论是内部开发的AI模型还是使用第三方AI工具,都面临投毒攻击风险。”
四种主要的投毒攻击
NIST在2024年1月的一份报告中强调了投毒攻击的危险性:“中毒攻击非常强大,可导致AI系统的可用性或完整性受到破坏。”
NIST将投毒攻击划分为以下四大类型:
- 可用性投毒:无差别地影响整个机器学习模型,相当于针对AI系统的拒绝服务攻击。目标投毒:黑客在少数目标样本上诱导机器学习模型产生错误的预测结果。后门投毒:通过在训练时在一部分图像中添加小的触发补丁并更改其标签,可以影响图像分类器,以在实际使用时激活错误行为。模型投毒:直接修改训练后的机器学习模型以注入恶意功能,使其在特定情况下表现异常。
NIST和安全专家指出,除了中毒攻击,AI系统还面临隐私泄露以及直接和间接提示注入等多种攻击。
NIST研究团队主管ApostolVassilev表示:“企业部署AI会引入全新的攻击面,我们已经看到了学术界和其他研究人员展示的漏洞利用。随着AI技术的普及,黑客攻击的价值也随之增加,这也是为什么我们会看到更严重的漏洞利用,我们已经看到相关案例的增加。”
AI投毒攻击可来自内部或外部
专家指出,黑客发起AI投毒攻击的动机与传统网络攻击类似,例如为了造成破坏或损失,以及获取机密数据或勒索金钱。
主要目标:AI厂商
研究人员指出,这些恶意模型可能允许攻击者在加载模型时向用户机器注入恶意代码,可能会迅速破坏大量用户环境。
CISO应该怎么做?
ISC2首席信息安全官JonFrance表示:“一般的CISO并不擅长AI开发,也没有将AI技能作为核心竞争力。”
安全专家建议,防御投毒攻击需要采用多层防御策略,包括强大的访问和身份管理程序、安全信息和事件管理(SIEM)系统以及异常检测工具。此外,还需要良好的数据治理实践以及对AI工具的监控和监督。
NIST在《对抗性机器学习》报告中也提供了详细的缓解策略和关于投毒攻击的详细信息。
最后,一些安全领导者强烈建议CISO在团队中增加接受过AI安全培训的专业人才(普通SOC团队无法评估训练数据集和AI模型),并与其他高管合作,识别和理解与AI工具相关的风险(包括中毒攻击),制定风险缓解策略。
转自GoUpSec,原文链接:https://mp.weixin.qq.com/s/sFHZwhoflRVy6zw5M1Vhkw
封面来源于网络,如有侵权请联系删除