互联网安全内参 04月27日 23:45
RSAC 2025前瞻:Agentic AI将成为行业新风向
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

2025年RSA大会将聚焦“代理型AI”(Agentic AI),这类AI能够在一定程度上独立于人类操作,分析数据并采取行动。文章指出,尽管存在炒作,但AI代理在网络安全领域的应用前景广阔,例如在安全运营中心中分析事件日志、检测异常流量等。然而,文章也强调了AI代理的安全风险,包括训练数据污染、执行错误行为等,并呼吁重视数据监管和人为审核,以确保其安全性和可靠性。

🤖 代理型AI是一种构建在大语言模型基础上的任务导向型AI,能够分析数据并采取行动,在某种程度上独立于人类操作,与传统的AI助手不同,代理型AI能主动执行流程、达成结果。

🔍 在网络安全领域,AI代理可应用于安全运营中心,例如分析事件日志、检测异常流量模式以及对告警进行初步分类,从而减少分析人员的工作量,并能识别由AI生成的钓鱼攻击。

⚠️ AI代理也面临风险,例如训练数据被污染、诱导执行错误行为,可能导致服务拒绝攻击、数据泄露等问题,因此需要加强对AI代理的监控和管理,确保其安全性。

🛡️ 文章强调了数据监管的重要性,以及在AI代理投入使用前进行人为审核的必要性,以避免AI代理在处理大量数据和执行关键操作时出现问题,确保其安全可靠。

关注我们

带你读懂网络安全


从开幕主旨演讲到各大厂商展台,代理型AI(Agentic AI)在RSAC 2025上频频出现,将成为今年网络安全行业的新风向。


前情回顾·RSAC 2025动态

安全内参4月26日消息,网络安全行业向来钟爱流行词汇,而这种趋势在每年于美国旧金山举办的RSA大会上体现得淋漓尽致。只需在展厅走一圈,便会被各种缩略语和夸张的宣传语轰炸得头晕目眩。

过去几年里,AI一直是行业焦点。从承诺实现完全自主的安全运营中心(SOC),到预测大模型可以无人干预地利用零日漏洞。我们预计,未来几天召开的2025年RSA大会,将被“代理型AI”(Agentic AI)主宰。



代理型AI在RSAC上无处不在


如同所有新兴技术一样,AI代理对不同的人有不同的定义。但总体而言,它是一种构建在大语言模型基础上的任务导向型AI,能够分析数据并采取行动,在某种程度上独立于人类操作。

尽管RSA大会上部分代理型AI的说法确有其现实基础,但很多都只是炒作。然而无论如何,我们都无法回避这个话题。

从4月28日的主旨演讲《代理型AI时代的安全》开始,到各大厂商展示其AI代理如何进行恶意软件分析或应对最新的AI生成威胁,“代理型AI”无疑将无处不在。

我们已经在最近几场科技巨头会议上见到了一些初期迹象,例如微软的Ignite大会和Google Cloud Next大会。这两大科技巨头以及其他软件公司,显然已经积极地跳上了代理型AI这辆列车。

Gartner研究副总裁Neil MacDonald表示:“去年,大家的重点是将生成式AI助手集成进软件中,帮助管理人员完成某项任务,如撰写政策或解释检测内容。”

他说:“2025年,焦点将转向AI代理,也就是代理型AI。这类代理能够自动完成一系列协调动作。传统的AI助手仅仅是响应你的请求,而代理型AI能主动执行具体流程、达成实际结果,无需你一步步引导。”

几乎所有行业都存在AI代理的应用场景,从支付处理到快餐点单。而在网络安全领域,典型场景包括安全运营中心相关任务,比如分析事件日志、检测异常流量模式以及对告警进行初步分类。



安全运营中的AI代理


专注于Salesforce平台安全的AutoRABIT公司首席技术官Jason Lord表示:“在安全分析的流程中,AI代理可以极为迅速地处理大量数据,从而大大减少分析人员必须整天敲代码、写搜索逻辑的工作量。”

Lord指出,代理还非常擅长识别钓鱼攻击,而这类攻击本身如今也越来越多地由AI生成。例如,代理可以分析一封电子邮件,并判断:“这是一个可疑的回复地址,这是一个伪造的标志,这个链接托管在.parks域名下、上线仅12小时。这很可能是恶意内容。”代理可以将这类邮件筛选出来,交由安全团队进一步处置。

此外,这类代理还像早期用于网络分析的AI工具一样,能够协助检测潜在威胁,并在大型企业环境中标记可疑流量。

Lord说:“所以,当你在调查某个安全事件,看着整天不停弹出的告警时,它可以把相关信息拼接起来,然后告诉你,‘嘿,之前我们检测到这3项活动刚刚发生。这是我拉取的所有相关数据,你可以据此进行判断。’”

不过,Lord也表示,他不会让代理执行某些关键操作。他说:“我不会让它去修改特征检测或规则逻辑,不会让它打开或关闭防火墙端口,也不会让它禁用或覆盖安全功能。”



应汲取天网故事教训


与此同时,要确保这些代理本身的安全,还需要大量工作。与所有AI系统一样,代理型AI也面临风险:恶意行为者可能会污染其训练数据,或诱导其执行错误行为。

Lord说:“我不会完全拿天网的例子来说事,但AI代理确实有可能执行一些风险极高的操作,比如关闭网络的某些部分,甚至整个网络。”他指的是电影《终结者》中那个叛变、毁灭人类的AI系统。

“它可能造成内外部的服务拒绝攻击,导致资源无法访问;它可能不小心泄露数据或个人信息;它可能绕过数据保护机制,将信息发送到组织外部。最终问题是:谁在监控这些代理?谁能识别出它们正在做错事?”

JFrog公司供应链安全负责人兼客户首席信息安全官Paul Davis说:“关于代理型AI的炒作问题在于,我们太沉浸于激动人心的技术前景,而忽视了其中潜藏的风险。”

“就像那些为代码而生的生成式AI一样,我们也必须安排真实的人来进行审核,在放它自由运行之前先层层把关。” 

Davis以自己熟悉的制造业为例指出:在很多制造系统中,设备必须按照严格的顺序进行关机和重启,否则就会出现严重故障。

他说:“很多人根本意识不到,除非有人专门教过AI这个顺序,否则它很可能就会搞砸整套流程。”

此外,围绕AI训练数据的隐私与安全问题也非常突出:这些数据存储在哪里?保存多久?谁能访问?是否可以删除?如果可以,谁来删?

Davis说:“没有数据,AI代理就毫无用武之地。数据监管将会变得极其严格。”

他补充道:“我们面对的是这样一个系统,它不仅可以编写代码、做出决策,还运行在处理大量数据的基础设施上。代理型AI正处于进入大众化的门槛上。这多少有点吓人,我相信我们在这条路上会经历不少波折。”

有一点可以确定:AI将毫无悬念地成为今年RSA大会的焦点话题。

Lord开玩笑说:“我要是每听到一次AI就收一分钱,那我现在都可以退休了。是的,只收一分钱。”他估计,这样赚到的钱足够“在波多黎各买一栋海景别墅。”


参考资料:theregister.com


推荐阅读





点击下方卡片关注我们,

带你一起读懂网络安全 ↓



📍发表于:中国 北京

🔗️ 阅读原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

RSAC 2025 代理型AI 网络安全 AI风险
相关文章