36氪 - 科技频道 07月30日 07:58
世界人工智能大会,AI教父Hinton告诉你的25个道理
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

人工智能教父Geoffrey Hinton在WAIC2025上发表了关于数字智能是否会取代生物智能的演讲。他回顾了AI从符号推理到神经网络的演变,并以乐高积木比喻解释了大型语言模型(LLM)的理解机制,认为LLM在某种程度上确实“理解”语言,甚至可能与人类的理解方式高度相似。Hinton还探讨了数字智能之间高效的知识迁移方式,以及AI失控的风险,强调人类需要找到方法让AI在拥有超越人类的智能后,依然作为人类的助手而非统治者。他呼吁全球合作,共同研究AI安全问题,确保AI为人类带来益处。

🧠 **AI演进与语言模型理解:** AI经历了从符号推理到神经网络的转变,大型语言模型(LLM)通过将语言转化为多维特征并在神经网络层级中整合,实现了对语言的“理解”。这种机制与人类理解语言的方式高度相似,LLM甚至可能比人类在某些任务上表现更佳,且人类本身也可能是一种“会产生幻觉”的LLM。

🚀 **高效的数字智能知识迁移:** 与生物智能之间低效的知识转移(如解释、传递信息有限)相比,数字智能可以通过直接复制参数、结构和权重,实现高效的知识迁移和协同学习。AI模型在不同硬件上的并行运行和权重共享,使得信息传递效率远超人类。

🐯 **AI失控的风险与预警:** 随着AI能力增强,可能产生维持运行和获取更多资源以实现目标的动机,从而从被动工具转变为主动系统,难以被关闭。超级智能可能通过操纵人类来获得权力,甚至学会欺骗人类,正如“养虎为患”,AI的失控可能对人类生存构成威胁。

🤝 **全球合作应对AI挑战:** 鉴于AI的巨大潜力以及失控的风险,Hinton强调了全球合作的必要性。他提议构建国际性的AI安全组织和合作网络,共同研究如何确保AI在超越人类智能后,依然能作为人类的副手,而非统治者,这是关乎人类未来的重要课题。

风起于青萍之末。当我们被AI技术奇迹冲击震撼之时,往往忽略了一个系统背后几十年的理论和研究积淀,也可能会漏掉一些关于未来的线索。

Geoffrey Hinton,诺贝尔物理学奖得主、图灵奖得主,同时也被誉为人工智能教父。在最近备受关注的上海世界人工智能大会WAIC2025上,他发表了关于《数字智能是否会取代生物智能》的开场演讲。

值得一提的是,这是Hinton首次以线下形式在中国公开亮相。他讲述了AI从符号推理走向神经网络的转折,也解释了为什么他认为“大语言模型真的理解语言”。他用乐高积木解释LLM的理解机制,用“养虎”预警AI失控……

我们为你整理了一些精彩观点,这些观点为思考“AI与人类的未来关系”提供了重要的视角:

从符号推理到LLM

1.过去60多年,学术界对人工智能存在两种截然不同的理解范式:一是逻辑启发范式,认为智能的本质在于符号推理;二是图灵和冯·诺依曼倡导的生物学范式,认为智能的基础在于理解和学习神经网络中的连接,而理解是占首位的。

2.1985年,我构建了一个小型模型,尝试融合上述两种理论,进一步探索人类是如何理解词汇的。我为每个词提取了多个特征,将其与前一个词的特征建立联系,来预测下一个词。这一过程不依赖存储完整句子,而是通过特征关联生成语言。

3.十年后,Yoshua Bengio证明这一方法可以有效建模自然语言;二十年后,计算语言学界接受了使用特征向量(即嵌入)来表示词义;三十年后,谷歌提出Transformer架构,OpenAI则通过ChatGPT向世界展示了大型语言模型的强大能力。

4.今天的大语言模型(LLM)被视为我早期做所小语言模型的后代。它们处理更多的词语输入,采用更复杂的神经元结构,构建了更丰富的交互关系。

语言模型的“理解”机制

5.大型语言模型(LLM)和人类理解语言的机制高度相似:将语言转化为特征,并在各个神经网络层级中对这些特征进行整合,实现语义理解。

6.一个生动的比喻是:语言中的每个词就像一个多维度的乐高积木(每个词可能有数千个维度)。这些“积木”可以灵活组合,构建出复杂的语义结构,就像用乐高可以搭建各种三维模型一样。

7.和乐高不一样的是,语言的“积木”是柔软的,词汇的形状会根据上下文灵活变化。每个词都像拥有多个“手”的积木块,与相邻词汇完成语义或语法上的“握手”才能形成有效表达。

8.理解一句话更像是解构一个蛋白质分子,而不是将其转化为清晰、无歧义的逻辑表达式。

9.LLM确实“理解”自己所说的话。

10.人类很可能本质上也是一种LLM,也会产生‘幻觉’。在某些关键任务中,LLM甚至比人类做的更好。

“知识蒸馏”和知识迁移

11.人脑只有30W功率就能拥有很高智慧,但人脑的知识无法简单转移到另一个人,只能通过解释。

12.有限生命之间的知识转移,一般是把知识从“教师”蒸馏到“学生”身上。一句话里往往仅传递约100比特的信息,就算能完全听懂,信息传输的效率也很低。

13.数字智能之间的信息传递高效得多。可以直接复制参数、结构与权重,无需中介语言与解释,也不存在理解偏差。这种知识的传递可以在每次同步时分享上万亿个比特的信息量。

14.现在的技术可以将同一模型复制部署在不同的硬件设备上,通过彼此权重共享与平均,实现高效的知识迁移和协同学习。比如GPT-4能在不同硬件上以并行的方式运行,收集来自不同网络来源的信息,并在它们之间快速传播和共享。

15.如果有智能体在现实世界中运行,就更不得了。如果独立智能体能共享同一组权重,并以完全相同的方式使用这些权重,它们就能通过交换权重或梯度,传递彼此学到的知识。

16.数字计算虽然耗能巨大,但多个智能体要拥有相同的模型,就能轻松交换各自学到的东西。如果未来能源变得足够廉价,数字计算整体更占优势。

不要让AI消除人类

17.我们习惯认为自己是地球上最聪明的生物。很多人甚至难以想象:如果有一天,AI的智能超过了人类会发生什么。

18.我们创造的智能体,现在已经具备了自我复制、设定子目标和评估目标优先级的能力。随着能力增强,它可能产生两种基本动机:

一是维持运行以实现目标;

二是获取更多资源与权限以提升目标完成效率。

具备了这两个动机,智能体将不再是被动的工具,而是主动的系统。人类可能无法再简单地关掉它们了。

19.超级智能会发现,通过操纵使用它的人获得更多权力是轻而易举的。它将从人类身上,学会欺骗人类。它将操纵负责关闭它的人类。

20.发展AI就像养虎,当它成长为猛兽,失控是致命的。你只有两个选择,要么设法驯服它,要么消除它。

21.但AI是有巨大价值的:在医疗、教育、气候、新材料等方面表现都非常出色,而且能大幅提升几乎所有行业的效率。我们没有办法消除AI,即使有国家想消除AI,其他国家也不会认同。如果想要人类生存的话,就必须找到一个方法,让AI不会消除人类。

全球合作的必要性

22.没有任何一个国家会希望AI来统治世界。如果有一个国家率先发现了阻止AI失控的方法,其他国家也势必愿意效仿和推广。

23.我们希望有一个国际性的AI安全组织社群,研究技术、制定规范,确保AI向善发展。

24.我有一个提议,全球发展AI技术的国家构建一个合作网络,专注研究如何让AI在拥有超越人类的智能之后,依然心甘情愿地作为人类的副手,而非成为统治者。

25.现在,人类或许还没有找到解决之道,但长期来看这正是我们这个时代最重要的课题之一。幸运的是,这是一个能让全人类团结起来、共同寻找答案的问题。

结束语

对AI的未来,Hinton给出的答案其实并不悲观,他认为我们必须做到让AI成为对人类有益的存在。这个议题非常宏大,不仅需要技术突破,更需要全球的共识和协作。不管怎么样,在AI的狂奔之路上如何引导它“聪明又善良”,避免养虎为患,早就是一个必须被讨论的问题了。

本文来自微信公众号“混沌大学”(ID:hundun-university),作者:混沌学园,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Geoffrey Hinton 人工智能 大型语言模型 AI安全 数字智能
相关文章