种种迹象表明,最近OpenAI似乎发生了什么大事。 AI研究员Gwern Branwen发布了一篇关于OpenAI o3、o4、o5的文章。 根据他的说法,OpenAI已经跨越了临界点,达到了“递归自我改进”的门槛——o4或o5能自动化AI研发,完成剩下的工作! 文章要点如下:OpenAI可能选择将其“o1-pro”模型保密,利用其计算资源来训练o3这类更高级的模型,类似于Anthorpic的策略; OpenAI可能相信他们已经在AI发展方面取得了突破,正在走向ASI之路;目标是开发一种运行效率高的超人AI,类似于AlphaGo/Zero所实现的目标; 推理时搜索最初可以提高性能,但最终会达到极限。 甚至还出现了这样一种传言:OpenAI和Anthropic已经训练出了GPT-5级别的模型,但都选择了“雪藏”。 原因在于,模型虽能力强,但运营成本太高,用GPT-5蒸馏出GPT-4o、o1、o3这类模型,才更具性价比。 甚至,OpenAI安全研究员Stephen McAleer最近两周的推文,看起来简直跟短篇科幻小说一样: 我有点怀念过去做AI研究的时候,那时我们还不知道如何创造超级智能。 在前沿实验室,许多研究人员都非常认真地对待AI短时间的影响,而实验室之外几乎没有人充分讨论其安全影响。 而现在控制超级智能已经是迫在眉睫的研究事项了。 我们该如何控制诡计多端的超级智能?即使拥有完美的监视器,难道它不会说服我们将其从沙箱中释放出来吗? 总之,越来越多OpenAI员工,都开始暗示他们已经在内部开发了ASI。 这是真的吗?还是CEO奥特曼“谜语人”的风格被底下员工学会了? 很多人觉得,这是OpenAI惯常的一种炒作手段。 但让人有点害怕的是,有些一两年前离开的人,其实表达过担忧。 莫非,我们真的已处于ASI的边缘?OpenAI被曝训出GPT-5,但雪藏