《纽约时报》于 2024 年 7 月 4 日报道称,OpenAI 在 2023 年初遭受了未公开的入侵。
《纽约时报》指出,攻击者并未访问 AI 所在的系统,但窃取了员工论坛的讨论内容。OpenAI 并未公开披露该事件,也未通知 FBI,因为它声称,客户和合作伙伴的信息均未遭窃取,此次入侵事件并未被视为对国家安全的威胁。该公司认定,此次攻击是由一名与任何外国政府均无任何已知关联的人员所为。
尽管如此,该事件还是引发了员工内部对 OpenAI 解决安全问题的严肃程度的讨论。
《纽约时报》写道:“此次泄密事件发生后,专注于确保未来人工智能技术不会造成严重损害的 OpenAI 技术项目经理 Leopold Aschenbrenner 向 OpenAI 董事会发送了一份备忘录,称该公司没有采取足够措施阻止外国政府和其他外国对手窃取其机密。”
今年早些时候,他被解雇了,表面上是因为泄露信息(但更可能是因为备忘录)。阿申布伦纳对官方泄密事件的说法略有不同。
在与 Dwarkesh Patel 的播客(2024 年 6 月 4 日)中,他说:“OpenAI 向员工声称我因泄密而被解雇。我和其他人敦促他们说出泄密的内容。以下是他们的完整回应:去年某个时候,我写了一份头脑风暴文件,内容涉及未来在 AGI 道路上所需的准备、安全和保障措施。我与三位外部研究人员分享了这份文件,征求反馈。这就是泄密事件……在我分享它之前,我审查了它是否有任何敏感内容。内部版本提到了未来的集群,我在外部副本中删去了它。”
显然,OpenAI 并不是一艘快乐的船,人们对它如何运作、应该如何运作以及应该去哪里有很多不同的看法。人们的担忧并不是 OpenGPT(即通用人工智能),而是 AGI(通用人工智能)的未来。
前者最终会转化所学知识(通常来自互联网),而后者则具有原始推理能力。
Gen-AI 并不被视为对国家安全的威胁,尽管它可能会增加当前网络攻击的规模和复杂性。
AGI 则不同。它将能够在网络、动能战场和情报领域制造新的威胁——OpenAI、DeepMind、Anthropic 和其他领先的 AI 公司和技术都在争先恐后地抢占市场。人们对 2023 年 OpenAI 漏洞的担忧在于,它可能表明缺乏安全准备,这可能会在未来真正危及国家安全。
“很多戏剧性事件都源于 OpenAI 真的相信他们正在开发 AGI。这不仅仅是一个营销口号。”
Aschenbrenner 补充道,“让人们感到困惑的是,人们一方面相信 AGI,另一方面却不认真对待其他一些影响,这两者之间存在认知失调。这项技术将非常强大,无论是好是坏。这牵涉到国家安全问题。你们在保护机密不被窃取吗?美国控制着核心的 AGI 基础设施,还是中东独裁者控制着它?”
随着我们越来越接近开发 AGI,网络威胁将从犯罪分子转向精英国家攻击者——我们一次又一次地看到,我们的安全不足以抵御他们。
在 OpenAI 发生一次相对不严重的入侵事件后(我们必须假设情况没有公司告诉员工的那么糟糕),Aschenbrenner提出了对安全的普遍和真正的担忧——似乎正是因为这个原因,他被解雇了。
转自会杀毒的单反狗,原文链接:https://mp.weixin.qq.com/s/uVRAQPVVVBsH8Ltl3xVc3g
封面来源于网络,如有侵权请联系删除