chouti 2025-06-20 21:32 上海
导语
什么是智能?我们如何理解AI的智能水平?DeepMind最近发文称AI 的“智能”并非客观存在,而是我们主观建构的产物。因此我们应该更关注 AI 的“智能体性”,即系统朝向目标引导的能力,更加关注 AI 与人类的互动和协作。或许,未来的 AI 不再是“人工智能”,而是“增强智能”,甚至是“共生智能”。
关键词:人工智能,人机协同,共生智能,客观智能
🧐DeepMind认为,AI的“智能”并非客观存在,而是取决于我们观察和评估它的“框架”。
🤔“框架”包含边界定义、因果变量选择、目标识别原则和适应性标准,决定了我们如何看待AI的“智能体性”。
🤖“图灵测试”和“中文房间”等测试的局限性表明,我们不应执着于“客观智能”,而应关注AI的“智能体性”。
🤝未来的AI评估应关注实用性、可解释性和可控性,并重视人机协作和“共情”能力。
💡“框架依赖性”理论对AI伦理提出了新的挑战,我们应在AI的设计和应用中充分考虑其影响。
chouti 2025-06-20 21:32 上海
导语
什么是智能?我们如何理解AI的智能水平?DeepMind最近发文称AI 的“智能”并非客观存在,而是我们主观建构的产物。因此我们应该更关注 AI 的“智能体性”,即系统朝向目标引导的能力,更加关注 AI 与人类的互动和协作。或许,未来的 AI 不再是“人工智能”,而是“增强智能”,甚至是“共生智能”。
关键词:人工智能,人机协同,共生智能,客观智能
别再执迷“客观智能”了!
Anthropic团队在其研究论文《On the Biology of a Large Language Model》中,引入了一种名为“归因图”(Attribution Graphs)的新方法来理解大语言模型的工作机制。集智俱乐部对其进行了翻译,这篇文章主要探究 1. 大语言模型在推理时会走捷径吗?2. 大语言模型作诗是即兴还是规划的?3. 大语言模型有自己独立的原生语言吗?从归因图到 AI 的“生物学”:探索大语言模型的内部机制「上」从“中文房间”的角度来看,GPT-4 仍然是一个符号操作系统。它通过学习海量的文本数据,掌握了符号之间的关联规则,但这些规则仍然是基于统计的,而不是基于语义的。不信?你可以试试让 GPT-4 解释一下“火钳刘明”是什么意思。它很可能一本正经地给你分析“火钳”和“刘明”这两个词的含义,却不知道这其实是“火前留名”的谐音,是网友们在论坛里灌水时常用的表达。再比如,你让 GPT-4 翻译一首古诗,它或许能把每个字的意思都翻译出来,但却很难传达出诗歌的意境和韵味。因为它缺乏对中国传统文化的理解,缺乏对诗人情感的共鸣。这就像一个没有灵魂的翻译机器,虽然字字对应,却失去了灵魂。“图灵测试”的陷阱:我们可能一直被 AI“骗”了?既然“理解”如此难以定义,那么我们能否通过“行为”来判断 AI 是否具有智能呢?“图灵测试”就是这样一种尝试。“图灵测试”的核心思想是:如果一台机器能够与人类进行对话,并且让人类无法区分它是机器还是真人,那么这台机器就应该被认为具有智能。然而,AI 真的能通过“图灵测试”吗?或者说,通过了“图灵测试”的 AI,就真的具有“智能”吗?恐怕没那么简单。 近年来,越来越多的研究表明,“图灵测试”存在着严重的局限性。一方面,AI 系统越来越擅长“欺骗”人类。2014 年,一个名为“尤金·古斯特曼”(Eugene Goostman)的聊天机器人,就成功地让 33% 的评委相信它是一个 13 岁的乌克兰男孩。另一方面,人类对 AI 的认知也在发生变化。我们越来越倾向于将 AI 的“行为”表现与“理解”能力混淆。只要 AI 的回答看起来“像”人类,我们就容易认为它具有了智能。更令人担忧的是,近年来出现了一种“逆向图灵测试”的现象。也就是说,人类需要证明自己不是 AI!在一项研究中,研究人员要求参与者在网上与一个未知的对象进行对话,并判断对方是人类还是 AI。结果发现,人类识别 AI 的准确率只有 60% 左右。而当人类被要求证明自己不是 AI 时,他们的“通过率”也只有 63%!这意味着什么?“图灵测试”的“门槛”正在变得越来越低。AI 越来越容易通过“图灵测试”,而人类却越来越难以证明自己是人类。甚至,在某些情况下,人类为了通过“逆向图灵测试”,不得不主动模仿 AI 的说话方式,比如故意犯一些拼写错误,或者使用一些生硬的表达。这简直是对人类智力的侮辱!难道,我们真的要向 AI 学习如何“不像 AI”吗?
DeepMind 的“灵魂拷问”:AI 的“智能体性”是什么?
重新定义 AI“智能”:从“客观”到“主观”
欢迎你加入集智俱乐部策划的「大模型可解释性」读书会,旨在突破大模型“黑箱”困境,尝试从以下四个视角梳理大语言模型可解释性的科学方法论:自下而上:Transformer circuit 为什么有效?自上而下:神经网络的精细决策逻辑和性能根因是否可以被严谨、清晰地解释清楚?复杂科学:渗流相变、涌现、自组织等复杂科学理论如何理解大模型的推理与学习能力?系统工程:如何拥抱不确定性,在具体的业界实践中创造价值?欢迎你来交流与讨论。https://pattern.swarma.org/study_group/62?from=Yongxiaojudian人机“共情”:建立理解和信任的桥梁“框架依赖性”还对人机关系提出了新的挑战。如果我们不能真正理解 AI 的“智能”,我们如何与 AI 建立信任?我们如何与 AI 进行有效的沟通和协作?未来的 AI 应该具备“共情”能力。也就是说,AI 应该能够理解人类的情感,并做出相应的回应。但是,AI 的“共情”与人类的“共情”是不同的。AI 的“共情”是基于对人类行为和语言的分析,而不是基于自身的感受。尽管如此,AI 的“共情”仍然可以帮助我们建立与 AI 之间的信任和理解。例如,一个具有“共情”能力的聊天机器人,可以根据用户的语气和措辞,判断用户的情绪状态,并做出相应的回应。这可以增强用户与 AI 之间的互动体验,减少用户的挫败感。近年来,关于人机“共情”的研究取得了许多进展。研究人员正在开发各种技术,使 AI 能够更好地理解和回应人类的情感。例如,斯坦福大学的研究人员开发了一个名为 HAILEY[4] 的人机协作系统。这个系统能够实时分析人类的语言和行为,并提供相应的反馈,让人类在对话中更好地表达共情。这套系统的核心在于构建了一个“框架嵌套”的设计:人类主导对话,而 AI 则通过分析对话中的语言特征,实时提供反馈,帮助人类更好地表达共情。实验表明,HAILEY 系统能够将人类的共情表达提升 19.6%,在困难案例中更是提升了 38.9%。DeepMind 的研究人员也在探索如何让 AI 具备“框架感知”能力。也就是说,让 AI 能够理解人类对它的“智能”的看法,并根据人类的“框架”来调整自己的行为。这些研究都表明,AI 的“共情”能力,不仅取决于 AI 本身的技术水平,还取决于我们如何设计和使用 AI。未来的 AI,或许更像一个“善解人意”的伙伴,而不是一个冷冰冰的工具。“框架依赖性”的伦理拷问“框架依赖性”理论,不仅对 AI 技术发展提出了新的要求,也对 AI 伦理提出了新的挑战。如果 AI 的“智能”是主观的、相对的,那么我们应该如何界定 AI 的“责任”? 如果 AI 在不同的“框架”下会做出不同的决策,那么我们应该如何确保 AI 的决策符合人类的价值观?例如,一个自动驾驶系统,在“安全框架”下,可能会选择牺牲车内乘客的生命来保护更多行人。但在“公平框架”下,这种选择可能是不道德的。那么,我们应该如何选择“框架”?更进一步,如果 AI 的“偏见”是不可避免的,那么我们应该如何应对?例如,一个用于招聘的 AI 系统,可能会因为训练数据中的偏见,而对某些群体的求职者产生歧视。那么,我们应该如何消除这种偏见?再进一步,如果 AI 的“价值观”是可以被塑造的,那么我们应该如何引导 AI 形成正确的价值观?例如,一个用于生成新闻的 AI 系统,可能会因为训练数据中的倾向性,而产生虚假或误导性的报道。那么,我们应该如何确保 AI 生成的信息是真实、客观、公正的?这些问题,都是“框架依赖性”理论给我们提出的伦理拷问。DeepMind 的论文并没有给出这些问题的答案。但它提醒我们,AI 的发展不仅仅是一个技术问题,更是一个伦理问题、社会问题。 我们需要在 AI 的设计、开发、应用等各个环节,充分考虑到“框架依赖性”的影响,确保 AI 的发展符合人类的利益和价值观。DeepMind 的“框架依赖性”理论,为我们理解 AI“智能”提供了一个全新的视角。它告诉我们,AI 的“智能”不是一个固定的、客观的属性,而是一个动态的、主观的建构。未来的 AI 研究,应该更加关注 AI 的“智能体性”,更加关注 AI 在不同“框架”下的表现,更加关注 AI 与人类的互动和协作。或许,未来的 AI 不再是“人工智能”,而是“增强智能”,甚至是“共生智能”。只有这样,我们才能真正理解 AI 的“智能”,并让 AI 更好地服务于人类。而这,或许才是“智能”的真谛。未来的世界,不是人类与AI的对决,而是人类与AI的共舞。在这场共舞中,'框架依赖性'理论可能会催生出一种全新的 AI 开发范式,即“框架工程”(Frame Engineering),专门研究如何设计、选择、评估和优化 AI 系统的“框架”,从而实现 AI 与人类的深度融合。而我们,能否驾驭这场未知的舞蹈,将决定人类文明的走向。
集智俱乐部策划了「大模型时代下的人机交互与协同」读书会,将探讨:人类智能和机器智能各自的优势有哪些?智能边界如何?如何通过更有效的标注策略和数据生成技术来解决数据稀缺问题?如何设计更加高效的人机协作系统,实现高效共赢的效果?如何提高机器决策的可解释性与透明性,确保系统的可信度?如何通过多模态协作融合不同感知通道,应对复杂的决策任务?欢迎你来参加交流、讨论。https://pattern.swarma.org/study_group/62?from=Yongxiaojudian参考资料:[1] Agency Is Frame-Dependent: https://arxiv.org/abs/2502.04403[2] AlphaGo Zero: https://deepmind.google/discover/blog/alphago-zero-starting-from-scratch/[3] AlphaZero: https://deepmind.google/discover/blog/alphazero-shedding-new-light-on-chess-shogi-and-go/[4] HAILEY: https://www.newswise.com/pdf_docs/16744962898443_Full%20text_%20Althoff%2042256_2022_593_finalpdf.pdf
大模型可解释性读书会读书会
集智俱乐部联合上海交通大学副教授张拳石、阿里云大模型可解释性团队负责人沈旭、彩云科技首席科学家肖达、北京师范大学硕士生杨明哲和浙江大学博士生姚云志共同发起「大模型可解释性」读书会。本读书会旨在突破大模型“黑箱”困境,尝试从以下四个视角梳理大语言模型可解释性的科学方法论:
自下而上:Transformer circuit 为什么有效?
自上而下:神经网络的精细决策逻辑和性能根因是否可以被严谨、清晰地解释清楚?
复杂科学:渗流相变、涌现、自组织等复杂科学理论如何理解大模型的推理与学习能力?
系统工程:如何拥抱不确定性,在具体的业界实践中创造价值?
五位发起人老师会带领大家研读领域前沿论文,现诚邀对此话题感兴趣的朋友,一起共创、共建、共享「大模型可解释性」主题社区,通过互相的交流与碰撞,促进我们更深入的理解以上问题。无论您是致力于突破AI可解释性理论瓶颈的研究者,探索复杂系统与智能本质的交叉学科探索者,还是追求模型安全可信的工程实践者,诚邀您共同参与这场揭开大模型“黑箱”的思想盛宴。
读书会计划于2025年6月19日启动,每周四晚19:30-21:30,预计持续分享10周左右。
推荐阅读
2. 从归因图到 AI 的“生物学”:探索大语言模型的内部机制「上」
3. Nat.Mach.Intell. AI+psy 速递:大语言模型时代下的人机交互与协作
5. 探索者计划 | 集智俱乐部2025内容团队招募(全职&兼职)
6. 加入集智,玩转复杂,共创斑图!集智俱乐部线下志愿者招募
点击“阅读原文”,报名读书会
AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。
鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑