HackerNews 编译,转载请注明出处:
未知威胁行为者被发现正在武器化v0——Vercel的一款生成式人工智能(AI)工具——来设计仿冒合法网站的虚假登录页面。
“这一观察标志着威胁行为者在生成式AI武器化方面的新进化,他们已展示出仅凭简单文本提示就能生成功能完整的钓鱼网站的能力,”Okta威胁情报研究人员Houssem Eddine Bordjiba和Paula De la Hoz表示。
v0是Vercel推出的AI驱动产品,允许用户使用自然语言提示创建基础落地页和全栈应用。
这家身份服务提供商表示,他们观察到诈骗者利用该技术开发了多个品牌登录页面的高仿版本,包括Okta自己的一位未具名客户。在负责任披露后,Vercel已屏蔽了这些钓鱼网站的访问。
该活动背后的威胁行为者还被发现利用Vercel基础设施托管其他资源,如仿冒的公司标志,可能是为了滥用开发者平台的信任关系并规避检测。
与传统需要一定设置工作的钓鱼工具包不同,像v0及其GitHub上的开源克隆工具这样的工具,允许攻击者只需输入提示就能快速生成虚假页面。这种方式更快、更简单,且不需要编码技能。这使得即使技术不熟练的威胁行为者也能大规模构建令人信服的钓鱼网站。
“观察到的活动证实,当今的威胁行为者正在积极试验并武器化领先的生成式AI工具,以简化和增强他们的钓鱼能力,”研究人员表示。
“使用Vercel的v0.dev等平台,新兴威胁行为者可以快速制作高质量、欺骗性的钓鱼页面,提高其行动的速度和规模。”
这一发展正值恶意行为者继续利用大语言模型(LLMs)协助其犯罪活动之际,他们正在构建这些模型的无审查版本,这些版本明确设计用于非法目的。其中一个在犯罪领域获得欢迎的LLM是WhiteRabbitNeo,它自称“专为(开发)安全运营团队设计的无审查AI模型”。
“网络犯罪分子正越来越倾向于无审查LLM、专为犯罪分子设计的LLM,以及越狱合法LLM,”Cisco Talos研究员Jaeson Schultz表示。
“无审查LLM是未对齐的模型,运行时不受护栏约束。这些系统乐于根据用户提示生成敏感、有争议或潜在有害的内容。因此,无审查LLM非常适合网络犯罪使用。”
这符合我们正在看到的更大趋势:钓鱼活动正在以前所未有的方式被AI赋能。伪造邮件、克隆语音,甚至深度伪造视频都出现在社会工程学攻击中。这些工具帮助攻击者快速扩大规模,将小骗局变成大规模自动化活动。这不再仅仅是欺骗用户——而是构建整个欺骗系统。
消息来源: thehackernews;
本文由 HackerNews.cc 翻译整理,封面来源于网络;
转载请注明“转自 HackerNews.cc”并附上原文