钛媒体:引领未来商业与生活新知 前天 18:54
对话图灵奖得主Joseph Sifakis:人工智能可以进化得更聪明,但无法完全超越人类
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文对话图灵奖得主约瑟夫·希发基思,探讨了人工智能(AI)时代知识的本质、AI的局限性、以及人类在教育和社会价值重塑中的角色。文章指出,我们对知识的理解存在困惑,混淆了信息与智慧。AI虽发展迅速,但缺乏常识理解和道德责任,无法完全替代人类。作者呼吁建立AI应用的全球标准,平衡STEM与人文素养,以确保AI成为“增强人类”的伙伴。

🤔 我们生活在一个对知识存在困惑的社会,混淆了信息与知识的区别。信息是具有意义并能够做出决策的数据,而知识是解决问题的有用信息。AI系统可能提供虚假知识,但其幻觉源于训练数据的局限性,导致其输出结果与有效知识难以区分。

💡 AI在工业应用中的影响微乎其微,现有的AI系统缺乏常识知识和决策能力。自动驾驶技术面临标准缺失和伦理困境,难以应对复杂社会情境。AI系统是黑匣子,其运作机制难以理解,因此难以保证其可靠性和安全性。

🤝 人类社会是智能体组成的,智能体之间需要合作解决问题,而AI也需要建立机构来实现共同目标。人类拥有内部目标、价值体系和理性,能够权衡价值与风险,而AI目前难以具备这些能力。AI可以处理复杂数据,但其知识的产生机制不透明,无法保证结果的可靠性。

🚀 AI无法超越人类,因为其缺乏社会智慧和集体智慧。人类的优势在于社会智慧、道德判断和价值体系。自动驾驶汽车的事故责任界定需要明确的标准。AI的局限性在于无法像人类一样理解和处理知识,无法在复杂的社会情境中做出决策。

📚 教育的核心在于培养批判性思维和创造力,而非仅仅传递知识。过度依赖AI工具可能导致学生丧失思考能力。教育应引导学生理解AI的局限性,并将其作为辅助工具使用,而非替代品。教育需要平衡STEM与人文素养,确保人类在AI时代保持主体性。

文 | Edu指南,作者 | 何沛宽  杨定一  罗博文 

如今人工智能(AI)被塑造成一场颠覆性的革命,似乎预示着机器终将超越人类智慧的“奇点”。然而,一个根本问题被忽视:我们是否真正理解AI的能力与局限?信息爆炸的今天,知识与数据的边界日益模糊,AI系统在生成答案的同时,也在制造困惑。《理解和改变世界:从信息到知识与智能》作者、中国科学院外籍院士、图灵奖得主约瑟夫·希发基思(Joseph Sifakis)指出,当下的AI热潮,暴露了社会对知识的深层误解——我们混淆了信息的堆砌与智慧的创造,高估了机器的“智能”,却低估了人类独有的社会性与道德责任。

当前,AI的“神话”正在全球蔓延。对话式AI如ChatGPT、Deepseek能够流畅回答复杂问题,自动驾驶技术被赋予“解放人类”的愿景,医疗AI被期待解决诊断难题。然而,约瑟夫却表示:我们今天其实还没有真正的智能系统。他认为如今AI对工业的真正影响,几乎为零。例如小米汽车等自动化工业产品的实践,事故发生指向AI落地时的风险和标准问题。

再者,约瑟夫提到,即使AI可以在安全性上表现完美,它仍然面临难以跨越的难题:AI的“智能”本质上是统计学模型的产物,它缺乏对世界的常识理解,更无法像人类一样在复杂社会情境中权衡价值与风险。当自动驾驶汽车能完美规避碰撞时,也将难以理解“礼让救护车”背后的社会契约;AI可以预测地震,但其结论如同黑箱,科学家无从追溯逻辑。这些局限不仅是技术问题,更是人类对自身认知能力的反思——我们是否将“效率至上”凌驾于对可靠性与责任的追求?

更深层的危机在于教育与社会价值的重塑。当现代学生依赖AI工具完成作业,当年轻人过度物质主义将职业选择简化为“高薪与否”,当哲学与人文科学被视为“无用”时,人们正在将思考的权利让渡给机器。约瑟夫警告,教育的核心并非传递知识,而是培养批判性思维与创造力;幸福的意义不在于物质满足,而在于“为梦想奋斗”的自由。AI的便利性若不加约束,可能加剧社会的功利化,侵蚀人类在道德决策、冲突解决与文化传承中的主体性。

与此同时,AI对传统社会结构的冲击已不容忽视,例如自动化系统可能威胁当下及未来的就业市场等。然而,约瑟夫并非技术的悲观主义者。他呼吁建立AI应用的全球标准,明确制造商与用户的责任边界,在教育中平衡STEM与人文素养。唯有如此,AI才能从“替代人类”的工具,进化为“增强人类”的伙伴。

本次的对话分享中,约瑟夫的观点无疑挑战了现有关于AI的主流叙事。他为专业读者提供了对人工智能现状和未来趋势的深入洞察,也为大众读者普及了信息学与人工智能的基础知识,帮助我们思考在这个智能化时代中,人类与机器应如何更有意义地协作共生。

以下是Edu指南对话约瑟夫全文(含删减),enjoy:

 

1、“我们生活在对知识存在困惑的时代”

Edu指南:你提到《理解和改变世界》这本书的一个责任是,展示知识的重要性。你认为我们生活在一个低估了知识重要性的社会吗?

约瑟夫:我认为我们生活在一个对知识存在困惑的社会中。我们有很多信息,我认为澄清信息和知识的概念非常重要。信息是数学、计算机科学、哲学中的一个基本概念,指的是具有意义并能够做出决策的数据。数据可以是感官语言数据、文本、图像等。这些数据是由人类解释的。所以要创造信息,你需要人类来解释数据。信息本身独立于物质和能量。这对于理解信息也非常重要。

知识是我们可以用来解决问题的有用信息。所以不是任何信息都是知识。总概来看,人类处理两种类型的问题。一种是理解世界,正如我在书中所说,另一种是通过行动来实现他们的目标。

最后,我们要对智能有一些定义,它描述的是我们使用和应用知识,来理解世界,并按照目标行事的能力。因此,它特别意味着感知世界的能力,即理解我们环境中发生的事情,并预测其未来状态的能力。所以作为回答你的问题,我认为人们对信息和知识之间的区别,没有清晰的理解。

Edu指南:我们的社会中,会有真实和不真实的信息,有用和无用的信息。当我们看到这些不同的信息时,如何区分它们?

约瑟夫:我认为理解这一点也很重要。这与我们称之为知识的关键特征属性相关。其中,一个关键特征是信息的有用性。有些知识可能是真的,但不是很有用,也不是很相关。例如,一个非常抽象的数学知识,对很多人来说可能是无用的。

另一方面,我们可以有很多有用的知识,但并不准确,所以这是不真实的。例如,我们在科学中使用的所有隐喻都是这样的。我们说电子,电子是一种波,或者是一个粒子。但事实上,这是一个比喻。在某些情况下,甚至更简单的信念也可以是有用的知识。例如,原始社会相信神话(虚构的事情)。当然,这不是真实的知识,但这对促进社会凝聚力和和平非常重要。

Edu指南:从信息学角度来看,你认为现在我们有一些“神话”,向普通人展示虚假信息或虚假知识吗?

约瑟夫:在人工智能系统里,有虚假的知识。我们知道它们可以系统地制造假的信息和知识,因为我们有所谓的幻觉(Hallucination)。那么为什么有AI系统幻觉呢?幻觉的发生是因为机器学习依赖于示例数据的训练。例如AI通过一个训练过程学会区分猫和狗的图像,在这个过程中我们提供了大量猫和狗的图像,我们有相应的答案。而我们用于训练的数据,往往不能充分涵盖可能出现的各种情况。

所以现在,如果你问一个训练集没有涵盖的问题,它会提供一个虚假的回答。这是AI的问题。特别要注意的是,AI虚假回答的问题在于,它们在形态上与有效知识、有效回答相似,而且用户很难区分差异。 

2、 “我们今天没有真正的智能系统,如果你看看AI对工业的真正影响,几乎为零”

Edu指南:我们最近看到一些描述说,如果AI系统变得更加智能,幻觉问题会更加严重。这是准确的描述吗?

约瑟夫:在这里,我们应该要明白AI系统的智能是什么。现在,如果你打开一本字典,你会看到智能在字典中的这些定义,存在于AI之前。你会看到智能被定义为人类理解世界的能力,然后采取行动来实现,满足他们的需求,满足他们的目标。

现在,如果你考虑一个AI系统,这意味着AI系统可以理解并有目的地行动。AI系统能做到这一点吗,或者我们今天有什么样的AI系统?

我们现在最常见的AI系统,是你提出问题,得到答案的系统,这是我们称为对话式的AI系统,如ChatGPT或Deepseek。但这还不够。因为AI系统的一个问题是它们无法做出决策。它们无法进行分析、做出决策和制定目标。这是人类的特权。

事实上,AI系统没有配备常识知识。你看,人类有一个世界模型,这是自我们出生以来发展起来的世界概念模型。我们用这个模型来理解语言,人类的思维也从感知信息到理解,从理解到行动。而AI系统,事实上,它们只能处理传感器的信息,但无法将这些信息与常识知识联系起来。它们做不到。我认为这个解释非常重要。

所以我认为我们今天没有真正的智能系统。我们只有对话系统。其中缺少了什么?让我解释一下缺少什么。我会说我们拥有智能系统——如果这些系统能代替人类行动,做一些复杂的任务。例如我从事自动驾驶研究,我们一直相信到2020年我们将拥有自动驾驶汽车。但我们没有发展出预期的东西。很有可能在未来,我们不会有完全自动驾驶的汽车。为什么?因为要驾驶汽车,系统应该能够理解复杂环境中发生的事情,并实时做出决策。我们不知道如何建立这样的系统。

我想说的是,今天我们有对话AI,所以人们可以玩AI系统,提问,得到答案。但是我们需要其他类型的AI,例如,AI进行预测,AI分析复杂情况,AI用于工业。如果你看看AI对工业的真正影响,几乎为零。

Edu指南:正如你所提到的,自动驾驶汽车,最近我们在工业实践上,一家名为小米的公司,有一些坏消息。这家公司提供电动汽车,支持辅助驾驶。一些司机,使用辅助自动驾驶功能,不再专注于汽车驾驶,而是在车里睡觉,这导致一些意外发生。

约瑟夫:是的,我知道。我认为他们应该禁止,我的意思是,应该采取更严格的监管措施。我们的技术还不成熟。现在试图在行人和其他汽车的现实环境中验证这项技术,这是一种危险。我是说,人们高估了AI的能力。这就是我一直在说的。

现在到了这里,我们应该理解的是,对于AI系统,我们今天并没有标准。我写了很多关于AI系统引发的风险。让我试着解释一下。我们的玩具、烤面包机、飞机等等,我们制造的所有东西都是经过认证的,安全的,有标准的,有国际规则的。如果我买了一个烤面包机并正确使用它,它不会杀死我。这是有保证的。在中国,在欧洲,在美国都是。

而现在对于AI系统,我们没有标准。对于自动驾驶汽车,我们没有标准。如果你有标准,例如,建造一架飞机,一些认证机构会说,哦,这是可以飞行的。现在对于AI系统,我们还没有标准。

现在在美国,他们发明了一个术语:自我认证。自我认证说的是,哦,没有中立的权威机构会保证这一点。制造商将保证这一点。比如说特斯拉,它说,看,我的车非常安全。但这只是它的自我证明。所以制造商以其他原因推动,其他非技术原因,让人们应该接受AI的想法,但如果他们在没有任何保证的情况下,引发风险,这太糟糕了。

Edu指南:规则仍然需要的,但大多数情况下,技术的工业实践,会走在规则和监管之前,不是吗?

约瑟夫:是的,但你需要规则。事实上,当我们建立一个系统时,需要考虑它的重要程度。例如,我的笔记本电脑并不重要。我的意思是,如果它出问题了,没问题。我可以用另一台笔记本电脑。

而有一些系统是非常关键的,例如飞机或核电站,这些是非常重要的。如果发生了什么不对劲的事情,那么就会有人的生命受到威胁。或者在医疗系统,这也是非常重要。因此我们不能在AI没有任何保证的情况下,试图让它提供正确的诊断、做出决定。在某个时候,我们应该决定:如果涉及到这些系统,我们不接受它们。因为我们不了解它们是如何运作的。

我想强调的另一件事是——这非常重要,AI系统是黑匣子。我们不明白它们是怎么回事。我在航空电子系统、飞行控制器方面做了很多工作。如果你编写软件,你可以分析软件并预测说,这是具有非常高可靠性的系统。但AI系统,我们不了解它们是如何工作的,因此很难保证它们的正确性。

Edu指南:从安全角度来看,自动驾驶、医疗等领域非常重要,因此相比普通的应用,它们需要设置更高标准。

约瑟夫:是的。如果你有一个普通的用途,例如在办公室使用的东西,如果你做错了什么,你有时间考虑。但是如果你在一些关键系统中使用,那就有两个问题。一个问题是它在没有人参与的情况下工作。另一个问题是,这些系统很难分析和预测。

3、“AI的问题在于它们产生了我们不理解的知识”

Edu指南:你在《理解和改变世界》中提到我们人类社会可以被视为信息系统。这两者之间的关键相似之处是什么?

约瑟夫:这是一个有趣的问题。首先,我们应该了解什么是AI系统,什么是智能体(Agent)。我的意思是,智能体的概念存在于哲学中,甚至存在于AI之前。所以我们称智能体是一个系统,它可以理解,可以行动。举个例子,动物可以被认为是一个智能体,现在我们有机器也是智能体,或者我们正在尝试构建智能体。

智能体的重要特征是它必须解决一些问题,它生活在一个社会中。所以我们有动物的社会,有人类的社会等等。因此,智能体不是孤立的,它与环境交互,并且必须与其他智能体交互。这还不够,智能体也必须解决一些问题,要解决这些问题,它必须与其他智能体合作。这就是我们所说的集体智慧。

我们有智能体之间的互动,这就是人类社会发生的事情。社会是由智能体组成的。每个智能体都在追求自己的目标。所以当智能体是人类时,人类应该合作实现共同目标。这是非常重要的事情。这是有规则的,或者说在有组织的社会中,你有法律,你有道德规则,你不会对某人做你不希望他对你做的事情。

所以现在我们正在研究人工智能体(AI Agent),当我们将一些想法对比人类社会,会发现智能机器和人类有很多相似之处。在人类社会中,重要的是我们交换的信息,重要的是机构之间的信任程度。那什么是机构?机构有助于实现组织社会的一些共同目标。定义什么是真,什么是假。

现在在机器中,我们也有机构。机器中什么是机构?它们可以是基于信息知识,分配任务或决定机器目标的服务器。所以在机器社会之间,这是一个非常有趣的类比。因为今天我们有机器社会,或者我们试图建立机器社会,我们有人类社会。这也是我试图在书中解释信息的作用和知识的作用的原因。信息的作用在于人们相信共同利益。人民信任他们的政府或不信任他们的政府。人们互相信任或不信任。你们可以在我的书中尝试探索这个有趣的类比。

Edu指南:如果AI系统足够聪明,可以设定目标,建立一些机构,例如有一个“政府”来帮助实现共同利益,人类社会与这个AI系统或信息系统之间是否还有明确的界限?

约瑟夫:这些是深刻的哲学问题,机器与人类有多大的不同呢?这也与伦理问题有关。你知道今天人们在谈论道德AI,他们想要一台有道德的机器。那么道德行为意味着什么?这里也有一些理论可以让我们理解,我的意思是,人类的行为意味着什么?我认为这些是非常重要的问题。

你可以看到机器和人类之间的巨大区别在于人类有一些内部目标,并且到目前为止已经决定了什么是内部目标。例如生存的目标。作为一个人要生存,当我饿的时候,我必须找到食物。如果我必须找到食物,我需要做一个分析来说,我想买食物,我的银行账户里有足够的钱吗?我是如何购买,等等。所以人类,当他们有目标时,他们会进行分析。这种分析取决于他们的状态,取决于他们的身体状况,健康状况等等。但也受到来自外部的限制。

为了进行这种分析,人类大脑中有一个价值系统。人们总是有一个价值体系,例如刚才提到的经济价值体系。你知道买面包要花多少钱,买衣服要花多少钱。你也有其他的价值体系,比如,如果我做错了什么,我会进监狱,我会付罚款。人们还有其他价值观,道德价值观等等。

所以人类建立了这个价值体系。当我决定做某件事或不做某件事时,我是根据这个建立起来的价值体系来决定的。这个价值体系反映了社会的价值体系。所以它不是独立的。我希望你们能理解这一点,因为我们的社会存在价值共识。例如经济价值体系,这是明确的;道德价值共识,什么是好的,什么是坏的等等。所有的社会都依赖于规则和某种价值体系。当然,价值体系是由机构和政府在全球范围内决定的。

现在,我的问题是,我们能为机器配备这样的价值体系吗?如何开发这样的系统,以及我们如何让机器行动。理性是人类思维的一个非常重要属性。我们根据目标进行选择,进行分析,尝试根据我们拥有的价值体系选择最佳解决方案。例如你会说,我应该作弊吗,还是遵守规则。如果我做错了什么,也许能得到一些东西,但我也有风险。每次你做决定时,你都有基于价值体系进行选择。 

这是人类非常复杂的系统。我们能为机器配备吗?我不知道。我们正在努力。但这些都是仍然需要探索的非常重要的问题。

Edu指南:在你看来,这是信息系统的局限吗?还是只是技术还没有发展到这里,所以AI系统或信息系统无法做得比人类更好?

约瑟夫:在这里我们应该解释一下,人工智能系统可以比人类做得更好。所以让我解释一下,人类理解复杂情况的能力有限。这与认知复杂性有关。这是我在书中解释的事情。认知复杂性意味着,如果有一个许多参数的复杂情况,例如我给你讲一个有20个不同角色的故事,你会记不住,因为太多了。所以人类有这个限制,而机器没有这个限制。

所以机器可以拥有人类无法理解的非常复杂的数据,并且可以提炼信息,可以从非常复杂的数据中提炼知识。这就是机器的能力。它们可以通过分析数据来了解非常复杂的情况。我认为我们应该充分利用这一点。因为机器可以帮助我们理解复杂的现象。现在有一些项目,与复杂现象相关,气象现象、地球物理现象等等。例如预测地震的项目,我们可以用AI来预测地震。

为什么用AI预测地震会成功?因为地震是非常复杂的现象。它们取决于很多参数。而目前人类的理论是有限的,或者说任何人类的科学理论都是有限的——这些理论可以依赖于一些参数,但不多,例如最多只有10个不同的参数。

现在,AI系统可以被训练,处理非常多参数。如何训练?例如,每天地球上各地的地震。我们收集数据并对其进行训练,它们可以将中国发生的地震和菲律宾发生的地震联系起来。它们可以做出预测,有一些实验数据表明了这一点。所以我们可以用AI来预测,它们比已有的科学理论做得更好。

当然,AI的问题在于它们有我们不理解的知识。这是个问题。对于现有的科学理论,因为我们已经设计了这些理论,并且理解它们的工作原理。我们对这些理论结论很确定。现在,举个例子,如果AI说明天会发生地震,你信不信?我的意思是,你没有证据。AI系统非常擅长预测和分析情况。这是最好的优点。这可以在科学中非常有用,例如,在分析医疗数据时,它们会非常好。

当然,我们应该时刻小心,因为它们可能会做错什么。它们在寻找新目标等方面也一点不擅长。而且它们提供知识的情况下,我们不知道它是如何产生的。这在将来会成为一个非常重要的问题。因为你会有另一种科学,这种科学会提供一定程度上有效的结果,但你不明白它们为什么有效。

Edu指南:有没有具体的解决方案来处理这个问题?AI产生如此多的信息,连它们自己都不真正理解,但却为科学家所用,应用到真实场景。

约瑟夫:是的。假设有人给你很多信息、知识,然后说,哦,这会发生或者这是真的。但你无法保证。这是问题。所以你看,在传统科学中,我们理解它,因为科学知识是通过使用数学模型产生的。因此,我们可以非常精确地验证一个理论、科学结果是否正确。这是我们不能用AI系统做的。

这就是要付出的代价。你会得到很多信息,很多结果。但是,你应该能够自己判断这些结果是否可用,或者你要考虑是否应该通过训练AI系统来产生可靠的知识。这是一个开放的问题。现在人们谈论安全AI、负责任的AI,甚至是专门的国际会议。但目前,我们不知道该怎么做。所以也许在未来,这将是可能的。但就目前而言,我们应该小心。

4、“AI可以进化得更聪明,但无法完全超越人类”

Edu指南:正如你所说,AI可以处理很多复杂的数据,比人类做得好很多。到目前为止,人类意识可能还是我们的优势。在你看来,一个更远的未来,人类的最终优势是什么,AI不能超越人类的最终门槛是什么?

约瑟夫:是的。对我来说,AI无法超越人类我的意思是,人们说AI变得比人类更聪明,这是没有根据的。所以也许你已经看到了,他们谈论通用人工智能,AGI。但是当你阅读新闻时,他们所说的AGI,是关于人类与机器的对话系统。他们不明白自主性(Autonomy)问题,意味着不仅AI比人类知道得更多——这是很容易做到的,重要的是AI知道的和人类一样多,但也能处理智慧地处理知识,能组织知识来解决问题。这是AI今天不知道该怎么做的事情。

为了解决问题,让我更精确地说,因为有各种问题,你可以解决数学问题,解决日常生活中的问题。就像开车一样,就像当医生一样,就像当厨师一样,所以解决问题意味着AI能够在复杂的组织中取代人类。

我想在这里强调的另一件事是,这是一个非常困难的问题。这还不够。让我考虑一个例子,例如自动驾驶汽车的一个问题是安全,不要发生碰撞。即使假设我有一辆安全的自动驾驶汽车,但这还不够。

旧金山有一些有趣的实验。你知道旧金山,一些公司部署了自动驾驶出租车。这些出租车它们不安全,它们会发生事故。但是假设它们是完全安全的,这是完美的AI,很安全的AI。这还不够,因为自动驾驶汽车的问题在于它们不理解这一点:现在在它们身后,一辆警车和一辆救护车想要通过,它们挡住了一辆警车,它们挡住了一辆救护车,但它们会说,我是安全的,我已经停下来了,没有事故。这需要社会智慧,这需要集体智慧,而机器现在是没有的。

那我们怎么能有这样的智能体?现在每个AI系统有自己的目标,例如我想开着车,从北京到上海。这是我的目标,但这是我的个人目标。当人类驾驶时,如果在高速公路上,人们应该考虑其他人的目标。而一辆自私的车,会把自己的目标放在最高优先级,这也许这对其他车来说不是很好。 这就是我们所说的社会智慧,AI系统很难实现。这与AI智能体与人类价值体系接近程度有关。

Edu指南:如果从道德角度来看,自动驾驶汽车用于真实场景时,一旦事故发生,谁应该为一些糟糕的事故负责?

约瑟夫:这就是标准在这里非常重要的原因。如果发生飞机事故,责任问题很清楚。因为飞机是经过标准认证的,符合标准的可以去飞行。因此,制造商可能并不直接涉及事故责任。现在,如果自动驾驶汽车,例如特斯拉,没有获得认证,那么制造商的责任就直接涉及其中。当然,还有用户滥用AI的情况。但这也是标准规定的事情。因此,这些标准规范定义了制造商和使用者的责任。如果你没有标准,那么你应该进行详细的分析,找到谁应该受到责备。

当然,系统对此不负责任。这些系统由工程师设计,责任归于制造商。这一点很清楚。说责任归于系统、归于AI是没有意义的。我的意思是,只有愚蠢的人才会这么说。因为责任意味着如果我做错了什么,我可以解释为什么,我做错了什么,我会假设我会为此付出代价。我可能会因此受到惩罚。这是责任感所固有的意义。你不能说我们会惩罚机器。要惩罚这些机器,你能做的就是拔掉它们的插头。

Edu指南:不同的情况下有不同的答案。

约瑟夫:是的,但如果你没有标准,你就无法定义风险责任的界限。再举个例子,你有一个AI,你问一个问题,如何建立一个炸弹。如果你足够聪明,根据AI告诉你的,你可以做出来。现在有制造商说我们对此不负责。我们无法控制这件事,但归根结底,他们有责任。

为什么他们要负责?因为如果他们可以告诉你如何制造炸弹,或如何为某人制作假视频。这意味着AI在某个地方找到了这些信息。无论是通过阅读文档、访问互联网等方式,这都应该受到监管。

但现在你也应该明白,这很难被监管。为什么?因为从技术上讲,它是如何发生的?你向人工智能提供了大量数据。如果你不过滤数据,只过滤书籍、文档、任何文件等,AI可以通过这一切学到一些东西。就像我说的,这是一个数据蒸馏器,你提取了数据。但如果要我提交这份文件之前,就对这份文件分析并提取有关如何制造炸弹的所有信息,AI的开发成本会很大。

这就变得技术化了,但你不能说通过炸弹这个词就很容易排除。因为如果你排除了炸弹这个词,你也会排除许多关于战争中炸弹的其他信息,许多其他有用的信息。 

5、“AI无法取代教育,教育的作用不仅仅是给你知识”

Edu指南:这是人与AI系统的互动以及如何在AI系统中制定一些具体的规则。让我们转到教育的角度,你在《理解和改变世界》书中提到社会和人们对信息学的重视不够。最近在美国、欧洲的一些国家,政府已经将AI课程设置为学校的必修课。你认为这样做足够吗?或者对该学科知识进入教育系统有什么建议?

约瑟夫:现在与AI相关的教育存在一个普遍的问题。当然,学生们应该学习一些关于AI的知识,应该学习一些关于技术的知识。我认为今天有一个重要的趋势,即教授知识、纯科学知识以及技术之间取得平衡。我认为这是积极的。也许你听说过这个趋势,关于这个被称为STEM的趋势。STEM包含科学、技术、工程和数学。这个想法是你要学习多学科的课程,这非常好。我想这在中国也在发生。

但我也认为,现在在教育中,向年轻人解释AI带来的危险并制定行为准则,非常重要。要去解释什么是机器的角色,什么是人类的角色。我讨论了很多关于年轻学生接触AI工具的问题。想象一下,我们有一个年轻的学生,他用Deepseek来寻找答案。我觉得这太糟糕了。因为年轻的学生通过Deepseek来回答问题或写一篇文章,这意味着他不会得到正确和充分的教育。

要知道教育的作用不仅仅是给你知识。它也在训练你的头脑,训练你的精神,训练你的思考、注意力和创造力。现在,如果年轻的孩子,每次面对问题时,都要求Deepseek来解决问题,这太糟糕了。

教育是一个训练过程。就像你是一个运动员,你是一个跑步者,你每天都在训练自己。你想尽可能表现出色,现在,如果你在这个训练中,使用机器跑得更快,你当然可以作弊。但这不是运动的目的。同样地,我认为,在教育上应该有一些控制。我不是说不应该使用,但他们应该把工具当作辅助,而不是直接为他们做决定、为他们解决问题。所以我们应该非常小心。

在谈论技术的趋势时,在我看来是,不要走向另一端,即注重太多的技术而不是科学,这也可能发生。当然,我认为现在教育中非常重要的一点是,它要解释了人类在多大程度上不同于机器,机器的局限是什么,以及如何使用机器。

Edu指南:一个非常严重的问题是,在AI方面可以记住很多东西的情况下,一些学科知识已经过时了。人们不一定需要像过去一个世纪、过去几十年那样学习,但这些学科仍然在大学里。

约瑟夫:是的。但是你看,知识,当你学习一些东西时,例如当你学习中国历史时,它们不仅仅是事实。知识不仅仅是事实。你学习的不只是事实本身,也有一些分析。这个过程中,你可以理解进化对人类社会意味着什么。对人类社会来说,什么是坏的,什么是好的。

现在人们现在说,哦,你什么都不需要知道,你只需要问问题并得到答案。但问题是,首先,你应该能够分析你得到的信息,而且就像我说的,如果你了解历史,你会明白社会是如何运作的,如何在社交场合表现,什么是对的,什么是错的。你学到了一些东西,什么是人类价值观?你学习历史,你学习动物生物学,你学习宇宙学,这是你理解世界的过程。

再举个例子,在年幼时我也做了一些实验。当我还是个孩子的时候,我在学习乘法表。现在也许孩子们不会学习乘法表了,因为你有电脑,你有计算器,你不需要这个。但是学习乘法表也能让你对数字之间的关系,数量之间的关系有所了解。通过分析数字之间的关系,你可以了解这是什么意思,什么是类比,什么是按比例或不按比例做某事,或者其他类型的关系。所以知识不只是为了让人们知道什么,也是为了理解不同事物之间的关系。这是非常重要的事情。

6、“今天的年轻人变得非常物质主义”  

Edu指南:思考过程也很重要,而不仅仅是记住知识本身。你也提到,如今,哲学、人文学科等正在贬值,因为它们与现在人们的生活不太相关。这些学科应该如何改变,更好地适应当今社会?

约瑟夫:这是一个非常重要的问题。我一生中花了很多时间阅读哲学,我学到了很多。当然,我认为哲学也应该在学校里教授,因为哲学给你一个关于如何理解世界的完整框架。什么是人类?人类和其他生物有什么区别?再给自己一些有趣的基本价值。

我对哲学的批评是,当我还是学生的时候,他们不会告诉你,我是说,在古希腊哲学中,哲学的目的是关于如何过一种有价值的生活。哲学的发展有一些时期,有很多伟大的哲学家做出了很大的贡献,我很钦佩他们。但是现在,自20世纪初以来,我们没有。我的意思是,我们有很多困惑。你应该有一些哲学家。你需要哲学,但你发现它们只是文学。

例如作为一名工程师,我讨厌不确定的定义。我需要对幸福的定义。但哲学家没有给出。这也是我试图解释的,生活中幸福,意味着我有足够的自由。所以我有愿景,我有目标,我有短期目标和长期目标。我有资源来实现我的目标。我不需要太多选择,因为如果我有太多选择,我可能会有问题。所以幸福意味着我对自己有一个愿景。然后我有了方法,去实现,但不是立即实现,因为这是一场持续的战斗。对我来说,幸福就是能够创造、奋斗、梦想。这非常重要。而且,这些不是太远而无法实现的梦想。这是一个游戏。

我在书中说,如果你在最后达成了无事可做的目标,那么你不会开心。所以我认为,人们应该明白,如果你没有梦想,如果你不为某件事而奋斗,你的生活会很悲伤。

这也是问题所在,我认为今天的年轻人变得非常物质主义。我的意思是,实际上我看到了我的学生也是这样,他们受过良好的教育。他们试图找到一份好工作。他们不在乎工作是否有趣。但是拜托,我们会一辈子从事这些工作,好吗?如果这是一份无聊的工作,我的意思是,生活会没有意义。所以我认为应该为人们提供一个指南,学习如何管理他们所有的问题。理解这一点,非常重要。要明白努力在生活中很重要。

这也是AI的危险。AI的危险在于它变成了商品。你随时可用。我见过年轻人说,哦,让我们问问谷歌该做什么,休假时该做什么。这很愚蠢。因为你没有高兴地说,我梦想去威尼斯,在威尼斯度过我的夏天。这是人们正在转移责任。当然,你也有责任去管理你的自由。如果你要做什么,你必须做出选择。现在,如果你不想玩这个游戏,这是关于自由的游戏,那么你当然也没有这个游戏的乐趣。

所以,这就是AI和计算机的问题,不是它们变得更聪明,然后我们就可以什么都不做,我是说,这永远不会发生。现在问题是我们转移了决策的责任,因为这很方便,而人类太懒了。如果有人能帮你做这些,你就不做了。事实上,对于体力任务来说是,人们确实有限制的,我可以很懒,但对于智力任务来说不是。

当涉及到选择自由的问题时,在我的讲座中,我对学生们说,想象一下你有一个非常强大的奴隶,无论你想要什么都可以帮你实现。就像在阿拉伯神话中,你有精灵,你拍拍手,精灵就来了。“主啊,你需要我为你做什么”。精灵可以做任何事情。

那么现在,谁将成为了奴隶?如果你想要的任何东西立即得到满足,那么你的幸福会是什么?所以人们应该深入了解幸福的概念,以及如何实现这一点。很遗憾,现在人们变得过于物质化了,也不在意决策责任了,AI推进了这一点。

7、“如果AI对旧结构产生影响,我们应该想办法安排好一切”

Edu指南:理解幸福和责任对我们自己意味着什么,实际上并不是容易的问题。

约瑟夫:是的,这应该向人们解释。我们可以开设一门应用哲学课程。有趣的情况是,你可以有很多钱,有很多自由。但你也可以看到,一些这样的人会自杀。为什么?因为他们不知道问题所在。我想你知道法国哲学家萨特,他说,人类的问题是不知道如何管理自己的自由。如果有很多自由度,人们会变得疯狂。所以问题是如何找到正确的平衡。

道德在其中也是非常重要的。道德不仅仅来自宗教。它来自非常实际的考虑。因为如果你分析伦理道德,他们说这是被禁止的,然后有了这个禁令,所以我说我不抽烟或者不做其他禁止的事情。接受这个限制是我的选择。

现在,什么是一个好的平衡?这取决于你在这场自由游戏中有多强大。但是有些人从出生开始,他们就说,我不做这个。他们过着安静的生活。或许不是很令人兴奋,但生活很平静。然后也有那些因为富有而变得疯狂的人。他们有很多选择。他们不知道他们如何选择,或者他们会做其他事情,这就是自由的问题。人们应该理解这个游戏,这也应该被解释,以及生活在社会中意味着什么。

还有信任的问题是什么?责任问题是什么?冲突的问题是什么?我花了很多时间去理解与某人发生冲突意味着什么。因为如果你理解与某人发生冲突的含义,那么你也会明白解决冲突的含义。这些是我们在系统中研究的非常简单的概念。我认为这个想法也应该应用于教育。

那么什么是冲突,这意味着我想做一个动作,我需要一个资源,另一个人想做一个动作,需要同样的资源。如果我拿了资源,你就没有资源了。所以我们应该就如何使用资源达成协议。这很简单。在社会中,所有关于道德的法律,都在规定如何解决冲突。例如交通规则要说明如何解决冲突。在一个十字路口,如果人们不遵守道德法则会产生什么结果,这是非常重要。如果无法解决冲突,今天的时代,今天社会拥有的和平就会崩溃,受到威胁。

所以人们应该理解这一点。我们有些人说,好吧,让我们忘记过去的一切。让我们忘记传统。我喜欢中国的这一点,中国人坚持传统。家庭的概念非常重要。这是一种结构。这是不被理解的事情,至少在其他社会是这样。这太糟糕了。这就是我们正在摧毁旧结构的事实,而且没有其他结构来取代它们。这太糟糕了。这也是因为许多不同层面的AI产生的结果。

所以我要说的是,这是为什么AI是一场剧变。在社会结构中,例如平台,我的意思是平台可以很棒,电子商务是个好事情,但你应该明白,通过这样做,我们打破了传统的结构。因为有人在郊区的某个地方开了一家杂货店,但现在所有这些都被取代了。

我的意思是,我不反对平台,但这意味着AI存在的一些风险。政府应该考虑,如果有这种社会变化,或者就业市场发生变化,如何解决。我不会责怪AI,我不反对科技。技术可以用于好事,也可以用于坏事。如果创新技术是更高效率的,去采纳很好,但效率本身并不是最好的目的。如果我们决定用它来提高效率,这会对现有结构产生一些影响,我们应该想办法安排好一切。这也是政府和社会的角色。

 

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 知识 教育 社会 伦理
相关文章