IT之家 01月25日
专家剖析 AI 致命缺陷,不具备大规模应用前提
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

莱斯特德蒙福特大学网络安全教授Eerke Boiten发表文章,从软件工程角度分析了当前AI技术在管理和控制方面的缺陷。文章指出,AI系统与传统软件开发标准不匹配,缺乏可管理性、透明性和问责制,尤其在复杂性管理和规模控制方面存在问题。AI的“黑箱”性质使其在关键任务中应用风险高,可靠性不足,且数据偏见问题严重。尽管“可解释AI”被提出,但并未解决根本问题。文章强调,AI的进一步发展应关注可控性和安全性,而非仅依赖可解释性,并指出缺乏有效的监管和标准化可能导致更大挑战。作者并非否定AI潜力,而是强调其在关键领域应用的风险,呼吁业界关注技术瓶颈和管理难题。

⚠️AI系统与传统软件工程实践不匹配:AI系统在复杂性管理和规模控制方面存在缺陷,缺乏可管理性、透明性和问责制,与软件工程的基本原则相悖。

🤔“黑箱”问题导致应用风险高:AI系统,特别是深度学习模型,决策过程不透明,难以追溯和解释,这在涉及人类生命健康、金融交易等关键领域应用时,风险极高。

⚙️“可解释AI”并非终极解决方案:虽然“可解释AI”试图使AI决策过程更透明,但并未改变AI在复杂应用场景中的根本缺陷,不能保证AI在所有领域都能高效可靠运行。

📊数据偏见问题:AI系统的决策质量高度依赖于训练数据的质量,数据偏差会导致AI模型产生带有偏见的判断,尤其在司法审判、招聘决策等敏感领域。

🛡️AI监管和标准化缺失:目前缺乏统一有效的行业规范,可能导致AI在未来面临更大挑战,亟需提升AI系统的可控性、透明度和可靠性。

从软件工程和网络安全的角度来看,当前的 AI 落地前景如何?「可解释性」方面的研究,真的能让 AI 拜托「黑箱」属性吗?

2024 年 11 月,莱斯特德蒙福特大学网络安全教授 Eerke Boiten 发表了一篇警示文章,题为「当前的 AI 是一条死胡同吗」。

在这篇文章中,Boiten 教授从软件工程的角度出发,分析了当前 AI 技术在管理和控制方面的重大缺陷。

他表示,AI 系统的本质问题在于它们无法与已有的软件工程实践有效结合,尤其是在复杂性管理和规模控制方面。尽管 AI 在诸如自动化、医疗、金融等领域取得了显著成就,但其核心问题在于无法确保系统在规模化应用中的可控性与可靠性。

AI 的复杂性管理问题

Boiten 指出,目前的 AI 系统与传统软件开发标准存在严重的不匹配。

软件工程的基本原则之一是,关键系统必须具备可管理性、透明性和问责制,而 AI 技术恰恰在这些方面存在缺陷。

例如,许多现代 AI 系统,尤其是基于深度学习的模型,在训练和应用过程中缺乏透明的决策过程,且很难追溯和解释其决策依据。

这种「黑箱」性质让 AI 系统在关键任务中的应用充满风险。尤其是在涉及人类生命健康、金融交易、网络安全等领域时,无法控制的系统可能带来灾难性的后果。

正因如此,Boiten 认为,当前 AI 的不可管理性本质上让它无法在这些领域担任核心角色。

缺少可靠性

此外,Boiten 还强调了 AI 系统在可靠性方面的不足。

虽然 AI 的表现常常令人惊叹,但其本身的可靠性依然远未达到理想的水平。在进行高风险决策时,尤其是在医疗、司法、金融等领域,AI 的错误率仍然不可忽视。

例如,AI 在图像识别中的误差率可能较低,但在医学诊断中,哪怕是极小的错误也可能带来致命后果。

AI 的在可靠性上的缺陷不仅仅体现在其技术能力上,更体现在其系统架构的可管理性上。

由于缺乏有效的监管和透明的设计,AI 系统往往难以在严格的工程标准下工作。在面对不断变化的现实情况时,AI 的决策过程可能会出现不稳定和不可预测的情况,这就增加了在关键领域应用它们的风险。

「可解释 AI」并非终极答案

为了应对 AI 的复杂性问题,业界提出了「可解释 AI」的概念,试图使 AI 的决策过程更加透明和易于理解。

这种方法看似解决了长久以来被诟病的「黑箱」问题,但 Boiten 指出,这一解决方案并不能根除问题。

他认为,「可解释 AI」并没有改变 AI 在复杂应用场景中的根本缺陷,它只是尝试解释现有模型的内部工作方式来减少不确定性。然而,这并不意味着 AI 能够在所有领域都能高效且可靠地运行。

因此,AI 技术的进一步发展不能单纯依赖于「可解释性」,而应该更多地关注如何提升 AI 系统的可控性和安全性。对于 AI 的监管和标准化,目前还没有形成统一且有效的行业规范,而这一缺失将导致其在未来面临更大的挑战。

数据责任:难以跨越的障碍

除了「可解释性」和「可靠性」,Boiten 还指出,AI 技术面临的另一个巨大挑战是数据责任问题。

AI 系统的决策质量,高度依赖于训练数据的质量,但目前很难有效保证数据的公正性、完整性和代表性。

由于数据存在偏差,AI 模型可能会产生带有偏见的判断,这在一些敏感领域尤为严重,如司法审判、招聘决策等。

尽管业界推出了多种方案来减少数据偏见,但 Boiten 称,这些方案仅仅是隔靴搔痒,并未触及问题的根本。

随着 AI 技术的发展和应用场景的扩大,数据偏见和隐私问题将变得更加严重。如果得不到有效解决,我们将不可避免地面临伦理和法律风险。

未来展望:潜力与挑战并存

Boiten 教授的警示并不是对 AI 技术的全盘否定,而是对其在关键应用中的风险进行了深刻反思。

他承认,AI 在许多领域已经展现出了巨大的潜力,尤其是自动化和数据处理等方面。然而,更广泛的应用必须在更加严格的工程标准下进行。对于那些影响人类安全和生活质量的领域,AI 的使用需要更加谨慎和透明。

文章的最后,Boiten 回答了开头抛出的问题 ——AI 的未来并非一条死路,但当前的技术瓶颈和管理难题确实需要引起足够的重视。

如果业界能在提升可控性、透明度和可靠性方面取得突破,AI 将能在更广泛的领域内发挥其潜力。否则,上述这些挑战足以限制 AI 在关键领域的落地,甚至让我们走进「死胡同」。

参考资料:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 软件工程 可解释性 数据偏见 监管
相关文章