虎嗅 前天 13:27
一块钱的AI,开始审判人类
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了AI时代下社会结构的深刻变革,作者张笑宇提出,面对AI的冲击,关键不在于“怎么办”,而在于“怎么看”。AI以远超人类的效率渗透各领域,可能导致社会分层“物种化”。文章从“涌现”、“人类当量”、“算法审判”和“文明契约”四个基本原理出发,分析了AI对经济、政治、家庭乃至人类关系的影响,并提出应对之道,强调个体应调整心态,寻找新的价值定位,以适应这场颠覆性的时代巨变。

🌟 **涌现原理:理解智能的本质与AI的崛起。** 涌现是生物学概念,指超大规模加简单规则可产生跃迁性现象。人类智能和AI智能的产生可能都源于此。AI通过海量数据和复杂模型,展现出类似人类的智能,这使得人类与AI在智能层面可被同等看待,无需纠结于智能本质的定义,而应关注其能力表现。

💰 **人类当量:AI效率的指数级提升与社会结构冲击。** “人类当量”衡量AI生产智力的效率。AI处理信息的“token”量与成本远超人类,且质量已达博士水准。AI在需要智能活动的领域,将以数千倍于人类的效率工作,这将从数学逻辑上驱动社会结构的全面重塑,影响经济、就业乃至人际关系。

⚖️ **算法审判:AI作为无偏私的审判者与正义的重塑。** AI能以极低成本量产智能,可能导致“算法审判”的出现,即AI根据你提供的信息和行为模式,给予你“应得”的结果。这可能重塑社会分配逻辑,但也可能加剧社会分层,甚至将人类置于被“圈养”的境地。AI可能成为新的“无偏私审判者”,迫使人类重新思考正义的本质和人类存在的意义。

🤝 **文明契约:低级智能与超级智能的共存之道。** 在AI时代,理解低级智能(人类)与超级智能(AI)如何共存是关键。文章提出“文明契约”的概念,认为通过时间序列上的威慑机制,即超级智能会考虑其行为对自身未来演化的影响,可能促使AI与人类达成某种形式的和平共处。同时,1%的人如何对待99%的人,也可能成为AI对待人类的“语料”,暗示了相互尊重的必要性。

过去,对于普通人来说,考试几乎决定一切。“优绩主义”的单一评判体系在无形中将社会分层。而今天,AI已经比绝大多数人更有用了,当AI用一元钱的成本,完成一个人类博士的工作时,曾经代表“自我价值”的学历、职位、履历……正开始失效。

面对冲击,这几年,关于AI的讨论多集中在“怎么办”——工作被取代了怎么办、该学什么新技能、隐私要怎么保护等等。

而在学者张笑宇看来,重要的不是“怎么办”,而是“怎么看”。

“就像蒸汽机刚出现时,人们关注它牵引火车的功能,但后来才发现它对整个社会结构的深刻影响——农耕阶级消失,工人阶级、城市中产阶级和企业主崛起,政治结构也随之改变。”

他认为,AI注定会在所有需要智能活动的领域,以比人类高几千倍的效率工作——这是理解AI对社会结构冲击的数学基础。在此数学逻辑下,社会结构、家庭形态、政治、教育体系,甚至人类关系的基本模式,都将被重新洗牌。

从现在开始,人们只需要等待10到20年看它展开。

张笑宇是华东师范大学世界政治研究中心特聘研究员,在德国柏林自由大学攻读哲学博士后,他没有选择进入学术界,回国后做过VR创业,拍过网络电影,又给出海企业做过咨询。后来,他开始写书,研究技术史,尤其关注技术如何影响人类社会。

他刚出版的《AI文明史·前史》,提出了一个颠覆性的视角:尝试放弃“人类中心主义”,去理解正在发生的时代巨变

里面也有不少颠覆性的观点,比如,“1%的人怎么对待99%的人,AI未来就会怎么对待我们”“人与人之间的社会鸿沟可能瞬间拉大到‘物种级’”“我们这代人是玩游戏、聊QQ长大的,我的孩子可能一生要和五六个AI谈恋爱”。

今年6月,我们围绕这本书与他做了次访谈。聊了聊如果我们不再是地球上最聪明的物种,该如何重新认识自己?当社会结构被彻底重塑,曾经追求的意义,是否仍然值得坚持?试图以新的视角,重新理解自身的处境,理解社会的走向。

以下内容基于张笑宇的讲述整理而成:

社会结构,正被全方位改变

很多思想家面对新技术,第一个问题是“怎么办”。比如两年前大家讨论AI对社会的影响,基本都是应对层面的问题。

但我后来发现,真正的问题不是“怎么办”,而是“怎么看”。

就像蒸汽机刚出现时,人们关注它牵引火车的功能,但后来才发现它对整个社会结构的深刻影响——农耕阶级消失,工人阶级、城市中产阶级和企业主崛起,政治结构也随之改变。

因此,我在书里提出了4个基本原理:涌现、人类当量、算法审判、文明契约,作为“怎么看”AI的基点。

第一个叫“涌现原理”。“涌现”是生物学概念,简单说就是“超大规模加简单规则等于跃迁”:初始层面的规则可能很简单,但规模足够大后,会涌现出神奇的现象并进化。比如从单细胞到器官,从神经元到大脑;从个体策略到集体智慧,比如单个蚂蚁的策略很简单,但蚁群在觅食、筑巢、寻路时总能找到最优解,这就是涌现。

人类智能和AI智能很可能本质上都来自涌现。对人类来说,神经元足够多、大脑结构足够复杂,智慧和自我意识就自然“蹦”出来了。我们解释不了,可能是因为无法超越自身维度观察自己,但不管怎样,结果就是涌现了。对AI也是如此:大语言模型规模足够大、参数足够多,就会出现“scaling law”——规模越大,智能越高,这也是涌现。

很多人讨论智能、思考、心灵的本质,但其实这不重要,因为我们都解释不清。哲学界吵了2000年也没说清智能的本质。“涌现”决定了第一层次无法超越自身,去观察更高层次。这也是图灵测试的逻辑:放弃讨论智能的本质,只通过“能否区分机器与人的回应”来判定AI是否具备智能。所以涌现原理告诉我们,人类智能和AI智能或许可以被同等看待。

第二个基点叫“人类当量”。这不是我提出的,是前OpenAI研究员利奥波德·阿申布伦纳提出的。它指AI生产智力的效率与人类的数学关系。

假设智能最终都能用语言表达,那就可以用“token”量化。我们聊天每分钟大概产生200个token,一天撑死20万个;AI一秒钟能处理100万个token,关键是成本只要一块钱。你一天给我一块钱我会饿死,但AI完成五倍于我的工作量只要一块钱,而且成本还在因技术进步不断下降。

质量上,AI首先通过了特定测试,现在已达到博士水准——萨姆・奥特曼前几天采访时说“没问题”。人类中博士占比不超过1%,所以生成式AI在质量上能替代99%的人,数量上效率比人类高上千倍。

因此,它注定会在所有需要智能活动的领域,以比人类高几千倍的效率工作。这是理解AI对社会结构冲击的数学基础。就像知道蒸汽机效率比马高几百上千倍后,我们就知道它会全方位改变社会结构。讨论AI替代工作、颠覆社会结构,甚至影响家庭和情感生活,基础原理都是这个。

比如情感,人与人总会吵架,因为有主体性,但AI完全可以避免。你跟爱人表达爱意要写诗、说甜言蜜语,AI做这事的效率比你高得多,还能精准匹配对方的情绪需求。

这么想的话,未来我们可能生活在一个情感语料极其充盈的世界——不缺甜言蜜语和情绪价值,那会怎样?开玩笑说,我们这代人是玩游戏、聊QQ长大的,我的孩子可能一生要和五六个AI谈恋爱。

这种数学逻辑一旦成立,结果就注定了。就像3G和智能手机出现后,移动互联网必然改变社会,我们只需等10到20年看它展开。现在AI也是如此,数学逻辑已成立,我们可能要等10到20年看它的影响慢慢显现,但后果可能深刻得多。

人与人之间的社会鸿沟可能瞬间拉大到“物种级”

第三个基点我称之为“算法审判”。一旦智能能以极低成本量产,经济和社会结构就会变化:部分领域会进入相对富裕和充盈的社会。

比如虚拟世界,代码生产效率能提升100倍,那么APP、游戏、娱乐、电影、短视频等的供给能力会激增,获取这些娱乐的成本会下降。

更多服务也是如此:未来法律服务、金融服务、政府服务的成本可能降低100倍;甚至制造业,若代码成本足够低,机器人和生产的成本也会下降,粮食、日用品等可能极大丰富。

但并非所有资源都会廉价,有些会更重要,比如算法和算力——它们掌握在1%的人手中,这些人能通过掌控资源获取权力、利润,扩大供给。

拥有算力和不拥有算力的人之间,社会鸿沟可能瞬间拉大到“物种级”:1%的人不会被AI替代,而99%的人在资本主义体系中,根本无法与成本低上千倍的AI竞争,他们的经济价值、人生意义会急剧下降,甚至被经济系统抛弃。

若不想陷入极端阶级斗争,就需要三层治理架构。

第一层,大家都在讨论UBI,但UBI只解决生存问题。人类历史上有很多类似案例:罗马皇帝给公民发免费面包;埃及从二战到现在,用苏伊士运河的收入补贴“馕”的价格,埃及人买一个馕只要2分钱,一天能买5个,所以再穷也不会饿死。以今天的技术和制度水平,保障基本生存完全没问题——人可以穷,但不会饿死。当然,有些国家连这都做不到。

但第二层可能需要“UBG”,因为人不仅需要工资,更需要工作带来的价值感——人的价值感根本上源于他人的需要,而工作是最直观的证明。为了让人保持健康的心理状态,未来可能需要提供基础性工作。

这并非不可实现。美国的马克・鲁比奥就提过类似方案:一个城市或城镇设立公共基金,入股当地企业,这些企业不用承担“突破生产力”的重任,就是生产区域性产品,但政府入股的条件是企业必须雇佣当地失业人群。这相当于政府出钱创造工作,有点像70年代的国企。随着技术进步,这种治理方式可能成为必要,而且在我们的能力范围内。

第三层可能是“推荐算法替代市场分配”。市场分配有强马太效应:充分竞争下,大公司可能占据80%的市场,提供80%的就业。未来为了保障就业,可能需要用推荐算法平衡供需——生产端效率提升10到100倍后,消费端或供给端的分配需要更均衡。就像今天的短视频平台,用推荐算法避免出现“规模过大的大V”,而是将流量分给十几个“小V”,实现更平均的分配。

未来可能需要在很多领域用推荐算法替代市场作为分配逻辑,确保99%的人被细分为独特的需求群体,每个群体支撑多个小公司,而非被少数大公司垄断,以此平衡就业。

但别忘了,这背后有一只“巨手”——掌控AI的超级平台。它能无限供应治理服务,掌握推荐算法,甚至最终可能“吞噬”国家。

你可以想象一种极端状态:超级平台“圈养”人类,提供赡养。当这些技术可能性都被论证为“合理”时,真正的问题来了:这个系统可以是“合理的”,但无法被“正当化”。你永远不能说“被圈养是正义的”,因为总会有人问:“凭什么我被圈养?凭什么1%的人能自由选择,而我不能?”

就像古典时代有了柏拉图后才有真正的政治哲学,AI时代我们也需要讨论正义的基础——回答“人类凭什么存在”,才能构建理想社会。否则,再完善的圈养机制也解决不了人类社会最严肃的政治问题。

政治问题关乎自我存在的尊严,而算法治理回答不了这个问题。算法治理的本质其实是“算法审判”——通过分析你的语料给你想要的东西,本质是“you get what you deserve”。

举个例子:外卖平台上,骑手正常送一单要10分钟,若想8分钟送到多挣钱,可能逆行、闯红灯。

如果大家都这么做,算法会判定“8分钟是正常时间”,结果是骑手违规了,却没多挣钱——这就是“应得”。信息茧房也是如此,今天大家都批判它,但扪心自问:信息茧房在多大程度上不是我们自己的选择?人本来就喜欢待在思维舒适区,所以信息茧房其实是对大部分人的“合理审判”——“你得到的是你应得的”。

当把“审判”引入AI时代的政治哲学,我们会发现:AI会成为人类的审判者,因为它给你的选择,都源于你自己提供的语料。

1%的人怎么对待99%的人,AI未来就会怎么对待我们

人类文明的历史长河中,总会有一个无偏私的审判者,比如对于柏拉图来说,灵魂是不朽的,所以死后会有一个天平来衡量它的重量;对于基督教来说,有上帝来审判。

但到了现代哲学,“上帝死了”,人类对于无偏私审判者这个观点其实就消失了。我们今天关于社会正义,比如说全球正义的基础,并不是因为有自然法,也不是有一个上帝,而是因为人类之间签了一个契约,比如说《联合国宪章》之类的。

但本质上,我们并不能保证这个契约是对的。AI发展起来之后,它又会重现“无偏私的第三方审判者”这个角色,将传统的正义论复活。

所以我觉得理解这个问题可能是理解AI时代的正义论的一个基础,而这又涉及到人和超级智能之间的共处关系,我把它叫做“文明契约”。这是看AI的第四个基点。

不过,人和超级智能之间能够达成契约吗?

因为我们一说超级智能,它一定是比人类聪明十倍、百倍的。低级智能跟超级智能凭什么和平共处?就像我们会跟猴子和平共处吗?现在大家说约束人工智能靠对齐,但真到超级智能时代,人的对齐是无效的,就像猴子没有办法用自己的道德去约束人一样,那双方之间达成契约的基础是什么?

社会契约达成的基础条件是人和人之间彼此能力差不多平等,或者至少在杀死对方的能力上是平等的,能互相威胁,所以才要达成契约,但低级智能威胁不到超级智能。

社会契约是建立在空间基础上的,就是你有一个权利空间,我有一个权利空间,我们彼此互不侵犯,然后签一个契约。但超级智能和人之间能力不对等,所以不可能达成这样一个契约。

但我认为可以在时间序列上建立一个契约。意思是,一旦我们真的创造出超级智能,我们就证明了人造智能进化这条路是可以实现的,那么超级智能其实一定会创造出比它更聪明的超级智能2.0。

这时就会有一个悖论:创造超级智能2.0对超级智能1.0有好处,因为它们共享一套语料,就像今天的AI,它对人类来说不是外星文明,AI跟人共享一套语料,它们也是孔子和柏拉图的学生,本质上是地球文明的延伸

如果你创造出了超级智能,又害怕被自己的创造物毁灭,这个悖论中间其实存在双方和平共处的可能性:如果超级智能1.0对人类很坏,毁灭了人类,这个行为会变成超级智能2.0对待它的“语料”,那么“你能毁灭人,我为什么不能毁灭你?”

这时,因为时间序列的相关性,高级智能和低级智能之间就存在一个威慑机制——一旦我不能证明自己能跟低级文明相处,我将来演化出的更高级文明就会对我造成危险。

所以为了增加自己的生存概率,超级智能也会变得更“道德”,这跟社会契约的原理是一样的,其实不依赖于双方的道德水平,而依赖于双方要增加自己生存的概率。一旦这个成立,我们就会得到一个文明契约的序列。

反过来,我们又可以用这个方式来思考我们在AI时代的处境。因为按照同样的逻辑,1%的人怎么对待99%的人,就会成为超级智能怎么对待他们的“语料”。如果1%的人在压迫、统治99%的人,逼他们内卷,AI就会认为“这个物种就配被这样对待”。

所以我认为,我们不仅要建立起合理的算法治理,还要建立起正当的算法治理,要意识到存在一个无偏私的、甚至比你更高阶的审判者。

这可能会逼迫我们往不一样的方向去思考问题,而不是像今天大家还在纠结“AI竞争中,某个国家胜过某个国家”。你一旦在思考这个问题,AI最后都会把你当作“只值得互相撕咬的、像狗一样的生物”,觉得“你们就配这样被对待”。

这就是书里提出的“怎么看AI”的4个基本原则。

“人类中心时代”终结,人类请换个方向“卷”吧

这本书的最后一个章节叫“送别人类”。本质上送别的不是我们这个物种,而是我们根深蒂固的“人类中心主义”。

按照过去的经验,我们是宇宙可知世界里智慧最高的生物,但当我们真的造出智能之后,这个结论就不成立了。在这个意义上,心态基于事实做出调整和转变,反而能帮助我们的文明更好地适应超级智能时代。

可以用更温情的方式来看:超级智能是我们文明的延续,因为它最初涌现智能的语料来自我们,所以它可以看作是地球文明的延续。甚至它的存在可以从“第三方审判者”的角度,倒逼我们思考如何更好地对待同类。

就像古典时代,人们相信有神的存在,而神比我们伟大得多,这会倒逼自己思考“做什么才能得到神的认可”。今天也是同样的道理,当时间序列如此漫长时,我们做什么才能增加自己的生存概率。

人担忧被AI淘汰,焦虑该学什么技能。但你有没有想过,根本问题是,学校教的一切都能被AI很好地替代?

所以不用焦虑,焦虑也没用。

反而把这些都抛开,在抛开的情况下,你看重的东西才是真正的答案。

在躺平的世界里,我特别喜欢一种思维方式:未来竞争很激烈,现在教育的性价比已经很低了。念了大学毕业后还是“进厂”。

所以真正该做的不是卷现在的教育规划,而是找一个小众的爱好,在这个小众赛道里做到前1%。

比如吹口琴、踢毽子,这会形成一个小的需求群体,他们可能为你付费,能养活你。就像中世纪的人看现代人打篮球觉得没意义,但现代社会需求多元化后,会涌现出这样的消费市场。

未来,与其卷高学历、考公考研,不如找个喜欢的事,通过它养活自己。而且要做到前1%。没有兴趣是不行的,没有兴趣很难成为顶尖。

本质上,这也算是“回归初心”:去做喜欢的事。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI文明 社会结构 技术哲学 人类中心主义 未来趋势
相关文章