IT之家 04月24日 12:23
Anthropic 示警:Claude 等 AI 被滥用,引导舆论威胁公众认知
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Anthropic报告称Claude等AI模型被恶意行为者滥用,涉及多种不良活动。开发团队虽采取安全措施,但威胁者仍试图绕过。文中通过多个案例揭示了AI被利用的情况,研究团队采取技术进行分析和封禁。

🌐Claude等AI模型被用于舆论引导、凭证填充等活动

📱营利组织创建虚假账号,传播政治偏见内容

🔑恶意行为者利用Claude处理泄露用户名和密码

💻技术有限的用户借助Claude开发恶意软件

IT之家 4 月 24 日消息,Anthropic 昨日(4 月 23 日)发布博文,报告称 Claude 等前沿 AI 模型正被恶意行为者滥用,涉及“舆论引导服务”(influence-as-a-service)操作、凭证填充、招聘诈骗及恶意软件开发等活动。

Anthropic 开发团队为 Claude 采取了多项安全措施,成功阻止了许多有害输出,但威胁行为者仍在尝试绕过这些保护。IT之家援引博文介绍,报告通过多个案例,揭示了恶意行为者如何利用 AI 技术进行复杂操作,包括政治影响力操控、凭证窃取、招聘诈骗及恶意软件开发。

其中最值得关注的一个案例,就是一个营利组织在 X 和 Facebook 上创建了超过 100 个虚假账号,完全无人为干预,能使用多种语言发表评论,伪装成真实用户,成功与数万名真实用户互动,传播政治偏见的叙事内容。

另一个案例涉及凭证填充操作,恶意行为者利用 Claude 增强系统,识别并处理与安全摄像头相关的泄露用户名和密码,同时搜集互联网目标信息以测试这些凭证。

报告还发现,一名技术能力有限的用户,通过 Claude 开发出超出其技能水平的恶意软件。这些案例均未确认实际部署成功,但显示出 AI 如何降低恶意行为的门槛。

研究团队通过 Clio 和分层摘要等技术,分析大量对话数据,识别滥用模式,并结合分类器检测潜在有害请求,成功封禁相关账户。团队强调,随着 AI 系统功能增强,半自主复杂滥用系统可能愈发普遍。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI模型 恶意滥用 安全措施 案例揭示
相关文章