index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
本文聚焦于微软与OpenAI之间围绕通用人工智能(AGI)的技术授权争议。微软投入巨资支持OpenAI,但双方合同中的一项条款规定,一旦OpenAI实现AGI,微软的技术授权将受限。随着OpenAI在AGI领域取得快速进展,这一条款引发了微软的担忧。OpenAI内部一份未公开的论文,将AGI能力划分为五个等级,为衡量AGI的实现提供了具体标准,加剧了双方的矛盾。文章探讨了这场关于AGI定义权的争夺,以及OpenAI的未来发展对微软可能带来的影响。
🤔 一份未公开的论文,名为《通用人工智能能力的五个等级》,将AI能力划分为五个等级:从Level 1的聊天机器人到Level 5的组织器,为AGI的实现提供了可量化的评估标准。
💡 OpenAI的快速发展引发了微软的焦虑。微软投资OpenAI 130亿美元,但合同条款可能限制其对AGI技术的授权,甚至切断技术支持。OpenAI在AGI领域的进展,使得微软的投资面临风险。
🔥 微软与OpenAI之间的谈判焦点在于AGI的定义权。OpenAI的这份论文为触发合同中的AGI条款提供了明确依据,使得OpenAI在谈判中占据更有利的位置。
⏳ OpenAI创始人Sam Altman预测,AI智能体将在2025年具备“认知劳动”能力,2026年AI推理力或将爆发,2027年机器人或将进入现实世界,OpenAI的AGI时间线越来越快。
【新智元导读】AGI条款变成倒计时炸弹!微软砸下130亿美元,却面临被切断技术授权的风险;OpenAI则在谈判桌上愈发强势。 一篇未公开发表的论文,究竟是让合同条款先爆发,还是AGI能力的「神预言」?最近,Ilya Sutskever曾大胆预言:终有一天,AI无所不能。它将彻底变革医疗体系,治愈疑难疾病,甚至延长人类寿命。但他也坦言,AI的真正力量既不可预测,也超出想象。真正的难题不是它做了什么,而是——如果AI能自己创造出更强的AI,会发生什么?这一拐点被称为「智能爆炸」(intelligence explosion):AI不再由人类主导升级,而是自主设计下一代AI。Ilya Sutskever感慨地说:我的天,我们该如何应对?AI的问题在于它影响深远,能力强大。它能解决一切问题,也能无恶不作。这是AI时代真正的命门。2015年,他就感受到了通用人工智能(AGI)的临近:简单的优化算法就能训练DNN,虽然完全无法从理论上解释,却在现实中不断奏效。Ilya形容这并非魔法,但依旧神秘——为什么如此简单的算法,在如此复杂的问题上居然能奏效。这并不是奇迹,但至今无人能解释。这让他意识到:也许我们正在接近某种全新的智能边界。但他认为Ai潜力巨大,但一旦失控,后果难以估量。创立OpenAI之初,他的信念、他的使命、他的愿景就是:但这也为OpenAI日后与微软在AGI问题上的争议埋下了伏笔。
一纸条款,为何突然成为谈判核爆点?这要从一个看似不起眼的合同条款说起。一方是科技巨头微软:投资了OpenAI超130亿美元、急于将AI能力深入到商业帝国的每个角落。
另一方则是OpenAI:手握「原子弹」级别的AI技术、正以前所未有的速度奔向未来。
他们的「婚前协议」中有一个条款:一旦OpenAI宣布他们已经实现AGI,那么微软依据合同所能获取的技术授权将被严格限制,甚至可能切断。
就在不久前,AGI还被认为是科幻。在过去,这一条款更像是一种姿态、一种道德图腾——OpenAI要确保:「为全人类利益」这一初心不被商业野心吞噬。然而,随着AI以前所未有的速度进化,图腾变成了微软的「达摩克利斯之剑」。据《金融时报》曝光,微软目前正在极力推动删除这一条款。谈判的激烈程度,甚至让微软产生了「干脆散伙」的念头。而引爆这场危机的导火索,正是一份在OpenAI内部流传、名为《通用人工智能能力的五个等级》(Five Levels of General AI Capabilities)的未公开研究论文。「幽灵手稿」:一份定义未来的论文这篇神秘的论文虽未正式问世,但已经搅动了科技界的神经。其详细描述了全新的AI能力评估体系,打破了过去对AGI「是」或「否」的二元对立看法,而是认为AGI的实现是一个渐进的光谱。具体而言,论文将AI的能力划分为五个等级:Level 1:聊天机器人。 AI能流利地理解和使用语言,完成多种任务,能力至少相当于人类初学者,甚至更好。Level 2:推理机。 AI能应用户要求,完成更复杂的任务,这些任务可能需要一位训练有素的人类专家花费一个小时才能完成。Level 3:智能体。可以自主采取行动的系统。Level 4:创新器。能够辅助科学发现,自主创新的AI。Level 5:组织器。能够组织、完成复杂工作的AI。而后不久,在与YCombinator总裁Garry Tan的播客访谈中,奥特曼就亲口证实,o1模型已经可以被定义为Level 2。从Level 1到Level 2,AI完成了从「实习生」到「资深专家」的跨越。不仅如此,奥特曼进一步预测:「我们抵达Level 3的速度,将比人们预期的要快得多。」Level 3意味着AI演进成可以自主采取行动的智能体,对社会、就业、科学的颠覆性影响将呈指数级增长。此前,OpenAI的研究科学家Mark Chen认为他们已经进入了Level 3:最近推出的智能体Deep Research和Operator,还处于早期阶段,未来推理速度更快,思考轨迹更长。奥特曼表示温和的奇点已经来了:
2025年,AI智能体开始具备真正的「认知劳动」能力;写代码这件事,从此改写。2026年,或将迎来AI推理力的爆发。届时,AI或将具有创新能力。2027年,AI或许将真正「动起来」——机器人将走进现实世界。OpenAI的AGI时间线越来越快,而微软的焦虑具体而真实:130亿美元或许真要「打水漂」。甚至Tyler Cowen这位硅谷最受欢迎的经济学家,公开发文表示:「o3就是AGI。」这份论文的存在,让AGI何时到来不再是一个模糊的的问题,而是一个可度量的、正在滴答作响的倒计时。定义权之战谁是鱼肉?谁是刀俎?OpenAI与微软谈判危机的本质:这是一场关于「AGI定义权」的战争。对于微软而言,最理想的状况可能是维持现状,AGI条款永远沉睡。但OpenAI的这份「五级能力」论文,恰恰为唤醒这条款提供了清晰的、可量化的路径。一旦OpenAI董事会依据这篇论文确认「我们已接近或达到AGI的某个关键阶段」,那他们在谈判桌上的筹码将瞬间倍增。OpenAI的内部人士透露,这篇论文之所以一再推迟,阻碍因素正是与微软的伙伴关系。这场关于AGI定义的斗争,已然白热化。《华尔街日报》说,OpenAI曾想用一个编程智能体来启动合同里的AGI条款,还考虑要不要公开指责微软在搞垄断。微软投入巨资帮助OpenAI创造出的,可能是一个将自身排除在外的「超级智能」。截至目前,这份引爆危机的论文仍未公开,谈判仍在艰难进行。https://www.wired.com/story/openai-five-levels-agi-paper-microsoft-negotiations/https://x.com/slow_developer/status/1938870052448600284
文章原文