新智元 12小时前
独家揭秘OpenAI核心文件:AGI五级突破实锤!微软130亿投资或打水漂
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文聚焦OpenAI与微软之间围绕通用人工智能(AGI)的技术授权争议。微软巨额投资OpenAI,却面临因AGI条款可能被切断技术授权的风险。OpenAI内部流传的未公开论文《通用人工智能能力的五个等级》,详细定义了AGI的实现标准,引发了关于AGI何时到来的讨论,并可能加速触发技术授权限制。微软试图删除该条款,而OpenAI则试图掌握AGI的定义权,双方谈判陷入僵局。这场争端本质上是一场关于未来AI控制权的博弈,反映了科技巨头在人工智能快速发展背景下的利益冲突与战略考量。

🤖 微软与OpenAI的合作关系:微软向OpenAI投资130亿美元,期望在人工智能领域取得领先地位,但双方的合同中存在关于AGI的技术授权限制条款,一旦OpenAI宣布实现AGI,微软的授权将被严格限制。

📜 未公开论文《通用人工智能能力的五个等级》:该论文将AI能力划分为五个等级,从聊天机器人到组织器,为AGI的实现提供了量化标准。OpenAI内部人士透露,该论文的发布受到与微软关系的阻碍。

⏳ AGI时间线的加速:OpenAI的O1模型已被定义为Level 2,奥特曼预测Level 3的到来速度将快于预期。Level 3意味着AI可以自主行动,对社会、就业和科学产生颠覆性影响。

⚔️ 微软与OpenAI的利益冲突:微软希望维持现状,避免AGI条款生效;而OpenAI则希望掌握AGI的定义权,在谈判中占据主动。双方在AGI定义、技术授权以及未来控制权上存在根本性分歧。

【新智元导读】AGI条款变成倒计时炸弹!微软砸下130亿美元,却面临被切断技术授权的风险;OpenAI则在谈判桌上愈发强势。 一篇未公开发表的论文,究竟是让合同条款先爆发,还是AGI能力的「神预言」?

最近,Ilya Sutskever曾大胆预言:

终有一天,AI无所不能。它将彻底变革医疗体系,治愈疑难疾病,甚至延长人类寿命。

但他也坦言,AI的真正力量既不可预测,也超出想象。

真正的难题不是它做了什么,而是——

如果AI能自己创造出更强的AI,会发生什么?

这一拐点被称为「智能爆炸」(intelligence explosion):

AI不再由人类主导升级,而是自主设计下一代AI。

Ilya Sutskever感慨地说:

我的天,我们该如何应对?AI的问题在于它影响深远,能力强大。

它能解决一切问题,也能无恶不作。

这是AI时代真正的命门。

2015年,他就感受到了通用人工智能(AGI)的临近:

简单的优化算法就能训练DNN,虽然完全无法从理论上解释,却在现实中不断奏效。

Ilya形容这并非魔法,但依旧神秘——

为什么如此简单的算法,在如此复杂的问题上居然能奏效

这并不是奇迹,但至今无人能解释。这让他意识到:也许我们正在接近某种全新的智能边界。

但他认为Ai潜力巨大,但一旦失控,后果难以估量。

创立OpenAI之初,他的信念、他的使命、他的愿景就是:

但这也为OpenAI日后与微软在AGI问题上的争议埋下了伏笔。


这要从一个看似不起眼的合同条款说起。

一方是科技巨头微软:投资了OpenAI超130亿美元、急于将AI能力深入到商业帝国的每个角落。

另一方则是OpenAI:手握「原子弹」级别的AI技术、正以前所未有的速度奔向未来。

他们的「婚前协议」中有一个条款:一旦OpenAI宣布他们已经实现AGI,那么微软依据合同所能获取的技术授权将被严格限制,甚至可能切断。

就在不久前,AGI还被认为是科幻。

在过去,这一条款更像是一种姿态、一种道德图腾——

OpenAI要确保:「为全人类利益」这一初心不被商业野心吞噬。

然而,随着AI以前所未有的速度进化,图腾变成了微软的「达摩克利斯之剑」。

据《金融时报》曝光,微软目前正在极力推动删除这一条款。

谈判的激烈程度,甚至让微软产生了「干脆散伙」的念头。

而引爆这场危机的导火索,正是一份在OpenAI内部流传、名为《通用人工智能能力的五个等级》(Five Levels of General AI Capabilities)的未公开研究论文。

「幽灵手稿」:一份定义未来的论文

这篇神秘的论文虽未正式问世,但已经搅动了科技界的神经。

其详细描述了全新的AI能力评估体系,打破了过去对AGI「是」或「否」的二元对立看法,而是认为AGI的实现是一个渐进的光谱。

具体而言,论文将AI的能力划分为五个等级:

    Level 1:聊天机器人 AI能流利地理解和使用语言,完成多种任务,能力至少相当于人类初学者,甚至更好。

    Level 2:推理 AI能应用户要求,完成更复杂的任务,这些任务可能需要一位训练有素的人类专家花费一个小时才能完成。

    Level 3:智能体。可以自主采取行动的系统。

    Level 4:创新能够辅助科学发现,自主创新的AI。

    Level 5:组织能够组织、完成复杂工作的AI。

而后不久,在与YCombinator总裁Garry Tan的播客访谈中,奥特曼就亲口证实,o1模型已经可以被定义为Level 2。

从Level 1到Level 2,AI完成了从「实习生」到「资深专家」的跨越。

不仅如此,奥特曼进一步预测:「我们抵达Level 3的速度,将比人们预期的要快得多。」

Level 3意味着AI演进成可以自主采取行动的智能体,对社会、就业、科学的颠覆性影响将呈指数级增长。

此前,OpenAI的研究科学家Mark Chen认为他们已经进入了Level 3:

最近推出的智能体Deep Research和Operator,还处于早期阶段,未来推理速度更快,思考轨迹更长。

奥特曼表示温和的奇点已经来了

2025年,AI智能体开始具备真正的「认知劳动」能力;写代码这件事,从此改写。

2026年,或将迎来AI推理力的爆发。届时,AI或将具有创新能力。

2027年,AI或许将真正「动起来」——机器人将走进现实世界。

OpenAI的AGI时间线越来越快,而微软的焦虑具体而真实:130亿美元或许真要「打水漂」。

甚至Tyler Cowen这位硅谷最受欢迎的经济学家,公开发文表示:「o3就是AGI。」

这份论文的存在,让AGI何时到来不再是一个模糊的的问题,而是一个可度量的、正在滴答作响的倒计时。

OpenAI与微软谈判危机的本质:这是一场关于AGI定义权的战争。

对于微软而言,最理想的状况可能是维持现状,AGI条款永远沉睡。

但OpenAI的这份「五级能力」论文,恰恰为唤醒这条款提供了清晰的、可量化的路径。

一旦OpenAI董事会依据这篇论文确认「我们已接近或达到AGI的某个关键阶段」,那他们在谈判桌上的筹码将瞬间倍增。

OpenAI的内部人士透露,这篇论文之所以一再推迟,阻碍因素正是与微软的伙伴关系。

这场关于AGI定义的斗争,已然白热化。

《华尔街日报》说,OpenAI曾想用一个编程智能体来启动合同里的AGI条款,还考虑要不要公开指责微软在搞垄断。

微软投入巨资帮助OpenAI创造出的,可能是一个将自身排除在外的「超级智能」。

截至目前,这份引爆危机的论文仍未公开,谈判仍在艰难进行。

https://www.wired.com/story/openai-five-levels-agi-paper-microsoft-negotiations/
https://x.com/slow_developer/status/1938870052448600284


Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI 微软 AGI 人工智能 技术授权
相关文章