安全客 2024年07月09日
当AI失控时会发生什么(以及如何阻止它)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

探讨人工智能发展带来的诸多问题,如造成物理伤害、出错影响、隐私侵犯等,并提出应对建议。

🎯人工智能从简单聊天到参与检测武器等,其发展带来复杂影响。如参与创建深度伪造儿童性虐待材料,引发严重问题。

🛡️为防止人工智能出错,需将其与其他技术叠加提供制衡。如在安全领域,避免产生误报或错过恶意攻击。

🚧人工智能出错的原因不能简单以'复杂'解释。如自动驾驶汽车事故的责任判定复杂且不透明。

🔒从隐私角度看,人工智能衍生作品可能违背隐私精神,相关法律问题亟待解决,如报纸出版商的诉讼。

💪人工智能是工具,能力越大责任越大,提供商目前的责任落后于可能承担的责任。

随着人工智能越来越接近造成物理伤害和影响现实世界的能力,“它很复杂”已不再是一个令人满意的回答。我们已经看到人工智能从回答学校家庭作业的简单聊天问题转变为试图检测纽约地铁中的武器,现在又被发现参与了一名利用人工智能创建 使用真实照片和视频深度伪造儿童性虐待材料 (CSAM) ,让那些 (穿着整齐的) 原版观众感到震惊。在人工智能持续迅猛发展的同时,一些人试图提供更有意义的护栏,以防止其出错。多年来,我们一直在安全领域使用人工智能,但我们警告称,人工智能并非万灵药,部分原因是它会在关键问题上出错。然而,“偶尔”出错的安全软件仍将产生相当负面的影响,要么产生大量误报,导致安全团队不必要地手忙脚乱,要么错过与人工智能已知的恶意软件“略有不同”的恶意攻击。这就是为什么我们一直在将其与许多其他技术叠加以提供制衡。这样一来,如果人工智能的答案类似于数字幻觉,我们就可以将其与其他技术结合起来。虽然对手还没有发动过很多纯人工智能攻击,但更正确的想法是,对抗性人工智能自动化攻击链中的环节会更有效,尤其是在网络钓鱼以及现在从网络钓鱼到超大规模社会工程工作的语音和图像克隆方面。如果坏人能够从数字上获得信心,并欺骗系统使用人工智能生成的数据进行身份验证,那么这就足以成为进入你的组织并开始手动启动自定义漏洞利用工具的滩头阵地。为了阻止这种情况,供应商可以分层多因素身份验证,因此攻击者需要多种(希望是时间敏感的)身份验证方法,而不仅仅是语音或密码。虽然这项技术现在被广泛部署,但用户也普遍未充分利用它。这是一种简单的方法,用户可以保护自己,而无需付出沉重的代价或大量预算。人工智能有错吗?当人们被问及人工智能出错的原因时,他们只是打趣说“这很复杂”。但随着人工智能越来越接近造成物理伤害和影响现实世界的能力,这不再是一个令人满意且充分的回应。例如,如果一辆人工智能驱动的自动驾驶汽车发生事故,是“司机”收到罚单,还是制造商收到罚单?这个解释可能非常复杂且不透明,不太可能让法庭满意。那隐私呢?从隐私的角度来看,我们已经看到 GDPR 规则对技术失控进行了严厉打击。当然,人工智能衍生、分割和切割原创作品并产生衍生作品以牟利的行为违背了隐私精神——因此会触发保护法——但人工智能到底要复制多少才算是衍生作品,如果它复制的量刚好足以规避立法呢?此外,在缺乏判例法、需要多年时间才能得到更好的法律检验的情况下,人们如何在法庭上证明这一点?我们看到报纸出版商起诉微软和 OpenAI,因为他们认为这些文章未经应有的认可就被高科技复述;诉讼结果将会很有趣,或许是未来法律行动的预兆。与此同时,人工智能是一种工具——通常是一种很好的工具——但能力越大,责任越大。如果我们新发现的力量失控,人工智能提供商目前的责任远远落后于可能承担的责任。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 安全问题 隐私侵犯 责任承担 法律问题
相关文章