IT之家 7小时前
国家安全部:警惕人工智能数据投毒,0.01% 虚假文本可致有害输出增加 11.2%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

国家安全部发文指出,人工智能的飞速发展离不开海量数据,但训练数据中存在的虚假信息、偏见等问题正成为新的安全挑战。数据污染不仅会影响AI模型的性能和准确性,甚至可能引发递归污染,导致模型认知扭曲,并在金融、公共安全、医疗等领域造成现实风险。文章强调,加强源头监管、强化风险评估和末端清洗修复是应对AI数据安全威胁的关键,需构建完善的治理框架以保障AI健康发展。

🎯 AI训练数据污染构成严峻挑战:人工智能的核心要素是数据,但训练数据中混杂的虚假信息、虚构内容和偏见性观点,即所谓的“数据污染”,正严重威胁AI系统的安全性和可靠性。例如,即使训练数据中仅有0.01%的虚假文本,也可能导致模型输出有害内容的比例显著增加11.2%。

📉 数据污染影响AI模型性能与准确性:数据是AI模型的“原料”,其数量、质量和多样性直接决定了模型的性能。污染的数据会干扰模型训练过程中的参数调整,削弱模型性能,降低准确性,甚至导致模型产生误导性或有害的输出。数据污染的“数据投毒”行为,通过篡改、虚构等方式,旨在干扰模型学习规律,降低其泛化能力。

🔄 递归污染形成恶性循环:AI生成内容的激增,尤其是低质量和非客观数据的泛滥,使得被污染的数据可能反过来成为后续模型训练的数据源,形成“污染遗留效应”。这种递归污染会使错误信息在模型训练过程中代代累积,最终扭曲AI的认知能力,使其输出的内容更加失真。

⚠️ 引发多领域现实风险:数据污染的危害不仅限于AI模型本身,还可能波及现实社会。在金融领域,虚假信息可能操纵股价;在公共安全领域,可能误导舆论、引发恐慌;在医疗健康领域,错误诊疗建议可能危及生命,并助长伪科学传播。

🛡️ 构建AI数据安全治理框架:为应对数据污染,国家安全部提出三方面对策:一是加强源头监管,依据现有法律法规建立AI数据分类分级保护制度,从根本上防范污染生成;二是强化风险评估,保障数据在全生命周期环节的安全,并构建风险分类管理体系;三是进行末端清洗修复,依据法规标准制定数据清洗规则,逐步构建模块化、可监测、可扩展的数据治理框架,实现持续管理和质量把控。

IT之家 8 月 5 日消息,国家安全部微信公众号今日发文称,当前,人工智能已深度融入经济社会发展的方方面面,在深刻改变人类生产生活方式的同时,也成为关乎高质量发展和高水平安全的关键领域。然而,人工智能的训练数据存在良莠不齐的问题,其中不乏虚假信息、虚构内容和偏见性观点,造成数据源污染,给人工智能安全带来新的挑战。

文章称,人工智能的三大核心要素是算法、算力和数据,其中数据是训练 AI 模型的基础要素,也是 AI 应用的核心资源。

文章称,高质量的数据能够显著提升模型的准确性和可靠性,但数据一旦受到污染,则可能导致模型决策失误甚至 AI 系统失效,存在一定的安全隐患。

IT之家注意到,文章最后提出应对方案:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 数据安全 数据污染 AI治理 国家安全
相关文章