中国科技报 13小时前
[国 际] 专家警告:AI系统的可解释性存在欺骗可能
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

德国人工智能研究中心指出,“X-hacking”是AutoML中普遍忽视的风险,通过精心挑选模型或定向搜索,即使预测正确,解释也可能完全不同,影响AI的可信度,尤其在医学等领域需警惕。

🍒 X-hacking包含Cherry-picking和定向搜索两种机制,前者从众多模型中挑选最能支持预期结果的解释,后者则让AutoML系统优化预测性能并找到特定解释模式的模型,两者都存在被低估的风险。

🔍 AutoML自动化机器学习流程,虽提高开发速度和降低门槛,但也使模型决策难以理解,关键在于需批判性使用,不能仅信任软件,尤其在医学等敏感领域。

📊 即使AI预测结果相似,特征重要性也可能差异巨大,这种解释的不一致性可能导致假阳性结果,对依赖AI决策的研究和应用领域构成结构性风险。

🛠️ AutoML工具接管了机器学习工程师的部分任务,如模型选择和超参数优化,但自动化过程隐藏了决策机制,使得AI的可解释性成为关键问题。

🧐 DFKI研究团队呼吁对AutoML进行批判性和反思性使用,强调理解模型决策制定方式的重要性,避免因自动化而忽视潜在的可信度风险。

图片来源:princeea网站

    科技日报柏林7月28日电 (记者李山)德国人工智能研究中心(DFKI)研究团队在日前召开的国际机器学习大会上报告称,在可解释人工智能(AI)领域,“X-hacking”是一个此前被普遍忽视的风险,并呼吁批判性和反思性地使用自动化机器学习(AutoML)工具。

    如果AI系统作出了正确预测,但却以完全不同的方式解释其得出的这些结果,会发生什么?DFKI数据科学团队介绍了“X-hacking”给AI可信度带来结构性风险的研究成果。

    X-hacking一词源于统计学中的P-hacking。所谓P-hacking指的是研究人员可通过一些数据操作技巧,在统计学上得出一个有显著意义的结果,即使这个结果实际上并无意义。这相当于一种数据篡改,可能会导致发布假阳性结果。

    相应的X-hacking描述了两种核心机制:一是Cherry-picking,即从众多同样优秀的模型中,精心挑选出解释能力最强、最能支持预期结果的模型;二是定向搜索,AutoML系统不仅能优化预测性能,还能精准地找到具有特定解释模式的模型。但这里面存在的风险往往被低估。

    即使模型得出的结果几乎相同,所谓的特征重要性也可能存在巨大差异。这在医学研究或社会科学等应用领域尤为敏感,因为在这些领域,可解释的模型通常构成关键决策的基础。

    AutoML代表了开发、选择和优化机器学习模型的自动化流程。软件工具接管了许多以前只有经验丰富的机器学习工程师才能完成的任务,例如选择合适的模型架构、数据预处理和超参数优化等。在医学、工业或社会研究等数据密集型领域,AutoML有望实现更快的开发速度、更低的进入门槛和可重复的结果。

    然而,这种自动化使得人们难以理解模型决策的制定方式,这是可解释AI的一个关键问题。因此,DFKI研究团队建议,使用AutoML的学科应该意识到方法的风险,而不仅仅只是信任软件。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

X-hacking AutoML AI风险 可解释AI
相关文章