原创 冉天枢 2025-07-27 18:09 上海
当机器的行为与人类的决策交织在一起时,我们如何应对?
导语
从回答我们日常问题的ChatGPT,到在金融市场中进行高频交易的算法,再到社交媒体上引导舆论的机器人账号,一个由人类和智能机器共同组成的复杂社会已然来临。过去,我们习惯将机器视为被动的工具,但如今,它们已成为能够自主行动、相互交流、并深刻影响社会结果的“行动者 (actors)” 。当机器的行为与人类的决策交织在一起时,会产生许多意想不到的集体后果——例如金融市场的“闪崩 (flash crash)”或网络信息的极化,这些都无法仅通过分析人类或机器单方面的行为来解释。
为了应对这一挑战,一篇发表于Nature Human Behavior的论文提出了一个全新的研究范式——“人机社会学” (A new sociology of humans and machines)。该研究主张,我们必须将人类与机器视为一个统一的、相互依存的复杂社会系统,并系统地考察人类之间 (H-H)、人机之间 (H-M) 和机器之间 (M-M) 的互动 。只有这样,我们才能理解这个新兴混合社会的运作规律,并引导其走向一个更稳定、高效和公平的未来。
关键词:人机社会学,人机社会系统,集体后果,人机互动,复杂系统
冉天枢丨作者
周莉丨审校
论文题目:A new sociology of humans and machines. Nature Human Behaviour
一个人机共存的新社会
一个人机共存的新社会
在过去,我们或许并没有把机器看成是社会成员。它们是独立于人类的,并不共享人的社会属性。在思考社会的形态和变化时,我们并不会有意识地将机器纳入复杂系统的动态过程中。
这篇文章给机器赋予了社会性。机器不再是人类社会中的“他者”,而是和人一样对社会的复杂状态产生作用。在理解机器时,不再强调它们“1+1=2”的机械性和离散性,而是强调它们和人一样,对社会中的实体存在广泛的相互作用。
这就是“人机社会学”。这种视角的出现,是由于如果我们想要更好地应对当前社会中的挑战,仅仅了解人类、和人类合作已经不够了。在金融、交通、市场、舆论等千行百业,机器和人类的决策与行动之间存在着深度的联结,甚至前者深刻地影响和形塑着后者。由多个相互依赖且相互作用的人类和智能机器组成的网络,构成了复杂的社会系统,其集体结果无法仅从人类或机器的行为中推导出来。当简单的非智能人工代理数量众多且相互依赖时,它们也可能产生意想不到且可能不受欢迎的结果。如果我们想防止金融崩溃、提高道路安全、维护市场竞争、提高拍卖市场效率并减少错误信息,仅仅了解人类已经不够了——我们需要考虑机器,并了解人类和机器如何相互作用,以及人机系统的集体行为如何被预测。我们需要一门人机新社会学。
图 1 | 人机社会系统包含多种算法、机器人程序或机器人,它们在群体和网络中彼此互动,也与人类互动。现有领域往往要么将机器视为媒介或接口,而非自主行动者或主体;要么关注其认知与决策过程,而非与人类的互动。我们呼吁建立一种新的人机社会学,以研究这些复杂系统中的人类行为、机器行为,以及人与人(H-H)、人与机器(H-M)和机器与机器(M-M)之间的互动。
机器如何改变人类社会的互动关系?
机器如何改变人类社会的互动关系?
要想了解机器如何改变我们赖以维生的社会系统,我们需要首先理解机器,以及机器与人的基本差异,从而反思人在和机器互动时的特点及其带来的影响。
机器的定义是“一系列计算制品:它们可以体现在物理设备中,如类人机器人,也可以仅存在于数字空间中,如聊天机器人和算法,其复杂程度从使用预定义的“如果 - 那么”规则的简单专家系统,到实时从数据中学习的生成式深度学习模型不等” (Tsvetkova et al., 2024)。换句话说,机器可以是有实体的、无实体的,可以是完整的产品,也可以是一个算法模型。进入数字时代后,机器从未像今天这样广泛存在于生产生活的方方面面。
机器和人的差异非常显著,我们仅根据经验就能够如数家珍。相比于人类,机器的行为往往更可预测,更具持续性。它们完成任务的精度更高、速度更快,获取的信息更丰富;而人类的信息往往比较受限,会表现出思维和行为的惯性、固持自己的观点,而且往往个体会被集体的声音、情感、认知偏差影响,在信息处理上噪音很大。机器的不足之处在于受限制多,适应性比较差,而且不容易受到外界影响;而人类的优势正是在于通过完善的感知和决策机制,来适应各种复杂环境的能力。人类还能够通过“元认知 (Meta-cognition) ”——对认知的认知——来调整思维和行为的模式。
面对机器这样和自身差异如此巨大的社会实体,人类和机器的交互模式相比人类和人类的交互模式,会发生什么样的改变?不同的流派众说纷纭。心理学中“计算机作为社会行动者 (CASA) ”方法的研究指出,人类对待机器和对待其他人的方式相似:人们会对计算机的友好行为做出回报 (Fogg & Nass, 1997),像对待人类一样礼貌地对待它们 (Nass et al., 1994),认为它们有能力,但也会对它们应用性别和种族刻板印象 (Nass & Moon, 2000; Siegel et al., 2009);人们还会将机器拟人化并对它们产生同理心,在目睹机器人受到虐待时会感到痛苦 (Rosenthal-von der Pütten et al., 2013; Slater et al., 2006)。
与此同时,脑科学领域的研究证据表明,人类和机器交互时,大脑的神经生理差异时非常明显的 (Krach et al., 2008; McCabe et al., 2001)。由于人类对机器的印象——例如,机器产生意图能力较低,缺乏自我利益,比人类更公正等——人类在和机器互动时的反应会更加平淡、不带感情 (Adam et al., 2018; Chugunova & Sele, 2022; Hidalgo et al., 2021; Schniter et al., 2020),但机器犯错时反而会严厉地批评它们 (Dietvorst et al., 2015; Candrian & Scherer, 2022)。人类与机器互动时,也会表现得更加理性和自私,合作和分享更少,索取和剥削更多 (Erlei et al., 2022; Ishowo-Oloko et al., 2019; Karpus et al., 2021; March, 2021)。人们会设计出比自己更具合作性的机器 (De Melo et al, 2019),但只有当机器更像人类时,或者当与机器的互动能使另一个人类受益时,人们才会对它表现出亲社会行为 (Oliveira et al., 2021; Hayes et al., 2014)。与单个个体相比,小群体的人甚至更有可能对机器人表现出竞争行为和欺凌行为 (Sebo et al., 2020)。尽管存在这种群体间偏见,但人类在做决策或解决问题时仍然容易受到机器的影响 (Köbis et al., 2021)。机器人可以导致人们在信息和规范方面的从众行为 (Salomons et al., 2018; Salomons et al., 2021),人工智能和ChatGPT会腐蚀人类的道德判断,使他们听从不道德的建议 (Leib et al., 2024; Krügel et al., 2023)。
人类往往比相信来自其他人或人群的建议更相信算法建议 (Bogert et al., 2021; Logg et al., 2019),但如果他们认为算法建议会威胁到自己的决策控制权,或者缺乏理解和认知兼容性,他们也可能会避免使用算法建议 (Burton et al., 2020; Mahmud et al., 2022)。
图 2 | 人机社会系统中的集体结果不同于纯人类系统中的集体结果。机器的行为方式与人类不同,在包含隐蔽人工主体的社会系统中,仅由于这一事实,集体结果就会有所不同 —— 即使人类未意识到机器的存在且不改变自身行为。此外,这两种类型的主体及其互动是相互依赖、相互影响的。因此,对机器存在的怀疑或认知可能改变人类行为,而与机器互动以及观察机器间的互动,则会影响人类彼此之间的行为方式。
机器是“帮手”还是“麻烦”?
机器是“帮手”还是“麻烦”?
那么,当机器作为社会“行动者 (actors) ”加入我们的生活后,它们究竟是高效的“帮手”,还是添乱的“麻烦”呢?答案并非非黑即白,这篇论文通过几个典型的社会场景,向我们揭示了人机互动带来的复杂效应。
Table 1详细分析了“人机社会系统”(H-M social systems)的类型、实例及其集体成果。表格将人机交互情境划分为五大类:竞争、协调、合作、信息传播和集体决策,并为每类情境提供了模型、通用实例、人机系统实例以及相应的集体结果(包括积极和消极影响)。
竞争 (Competition)
当多个主体争夺一个不可共享的共同目标时,竞争就会产生,例如竞赛、拍卖和产品市场 (Tsvetkova et al., 2024)。
在竞争激烈的环境中,算法的引入是一把双刃剑。一方面,它们凭借超凡的数据处理和学习能力,能迅速发现套利机会,提升市场流动性和效率。它们的存在甚至会促使人类交易员更理性地行动,从而抑制价格泡沫。例如,定价算法在交易和拍卖市场乃至常规产品市场中广泛应用 (Aparicio & Misra, 2023; Chen et al., 2016),能够帮助人类定价经理提供建议 (Garcia et al., 2024; Hunold & Werner, 2023),甚至完全主导某些企业的定价 (Chen et al., 2016; Assad et al., 2024)。
但另一方面,灾难也可能由此而生。算法本身无法提升市场质量,而且旨在误导和影响其他交易员的操纵性算法和欺诈性算法会降低市场效率 (Bao et al., 2022)。算法还可能削弱专业交易员的理性,甚至疏远或驱逐业余交易员。更有甚者,在一些模拟和真实世界的观察中,定价算法可以在企业之间没有明确沟通的情况下,通过互相学习和相应,自发地学会“合谋 (collusion)”、形成反竞争价格 (anti-competitive prices), 高于在公平、自由竞争环境下应有的价格水平,从而剥削了消费者的利益 (Calvano et al., 2020a; Calvano et al., 2020b; Klein, 2021; Johnson et al., 2023; Werner, 2022)。
竞争的人机系统包括:
高频交易市场 (high-frequency trading markets)
定价算法 (Pricing algorithms)
在线拍卖中的狙击算法 (online auctions with sniping algorithms,指的是一种利用自动化软件或工具,在拍卖结束前的最后一刻自动提交竞价的技术)
多人游戏中的作弊机器人 (cheating bots in multiplayer games)。
高频交易市场中的竞争
高频交易(HFT)算法是自动化脚本,它们依赖高速、大批量交易,以在错误定价或市场信号消失或被纳入价格之前对其进行利用 (Hagströmer & Nordén, 2013)。这一现象始于20世纪90年代中期,此后迅速蔓延,在全球境外股票、外汇、大宗商品、期货和股票市场占据主导地位 (Menkveld, 2016)。
HFT算法处理大量交易历史数据和当前新闻来做出决策,因此被视为掌握更多信息的交易者 (Brogaard, 2014)。其中一些算法似乎能够预见市场,它们的交易持续预测着人类交易者未来的订单流 (Hirschey, 2021)。然而,由于大多数算法对相同的公开信息反应相似,与人类相比,它们的交易策略多样性较低,彼此之间的行为相关性更高 (Chaboud et al., 2014)。因此,尽管它们的行为通常能提高市场效率,但也可能引发行为连锁反应和不稳定性 (Jarrow & Potter, 2012)。
HFT算法通常充当做市商,增加交易机会,降低交易成本,连接不同场所的买家和卖家,并提交大量的价格报价 (Menkveld, 2016; Hendershott et al., 2011)。它们通过根据永久性价格变动进行交易并对抗暂时的价格错误,促进价格效率 (Brogaard, 2014)。这通常是一种稳定的力量,能够减少短期波动性 (Hagströmer & Nordén, 2013; Chaboud et al., 2014; Hasbrouck & Saar, 2013)。
然而,在较长的时间尺度上,HFT算法可能会通过增加波动性(Boehmer et al., 2021) 和不确定性 (Hilbert & Darmon, 2020),并降低交易策略多样性 (Johnson et al., 2013),从而降低市场质量。例如,尽管算法并未导致2010年“闪崩”事件,但它们通过放大波动性加剧了该事件 (Kirilenko et al., 2017)。这促使近期对市场交易速度进行监管:例如,以较慢的间隔批量处理交易可以削弱HFT算法的优势 (Budish et al., 2015)。
协调 (Coordination)
在需要协调的场景中,机器有时能带来意想不到的惊喜。在人机系统中,机器人可通过引入更多随机性和动态性,引导人类群体找到更好的解决方案。机器人不仅能在直接互动中减少不可解决的冲突,还能在间接的人际互动中发挥作用,即使参与者知道自己在与机器互动。但是目前来说,基于人类行为训练的机器人信息处理效率较低、适应速度较慢,导致在合作群体形成游戏中,混合群体的表现比纯人类群体和纯机器群体更差 (Takko et al., 2021)。
总之,当群体可能陷入次优均衡时,非类人机器人可通过为系统注入随机性和不可预测性来提供帮助。这种简单机器人可能比表面模仿人类行为却缺乏学习和适应能力的机器人更有益。
协调的人机系统包括:
自动驾驶汽车交通 (traffic with autonomous vehicles)
维基百科编辑 (wikipedia editors)
仓库和制造中的人形机器人 (Humanoid robots in warehouses and manufacturing)
合作 (Coorporation)
当涉及合作的社会困境时,机器也能扮演关键角色。在公共物品博弈等情境中,虽然人类在与机器互动时合作意愿会降低 (Ishowo-Oloko et al., 2019; Karpus et al., 2021),但研究者发现,如果在网络中的关键位置巧妙地部署一些始终坚持合作的“亲社会”机器人,就能有效提升整个人类群体的合作水平 (Santos et al., 2019; Sharma et al., 2023)。而且,只需要这些少数的、隐蔽的合作机器人广泛分布在网络中并且与很多人类参与者互动 (Suri & Watts, 2011),就能触发人类的模仿和互惠行为提升合作水平。因此,这些机器人能否提升群体合作水平,取决于互动网络的结构。
合作的人机系统包括:
关怀型机器人 (caring robots)
个人AI助手 (personal AI assistants)
聊天机器人 (chatbots)
维基百科编辑 (Wikipedia editors)
Reddit 版主 (Reddit moderators)
多人游戏中的非玩家角色 (Non-player characters in multiplayer games)
维基百科上的合作与协作
维基百科(Wikipedia)是最大、最受欢迎的免费内容在线百科全书,它托管着一个机器人生态系统。这些机器人负责生成文章、修复页面错误、链接到其他网站和数据库、标记文章分类、识别破坏者、通知用户等工作 (Halfaker & Riedl, 2012; Niederer & van Dijck, 2010; Zheng et al., 2019)。这些机器人是开源、有文档记录、经批准、已注册和已标记的 (Halfaker & Riedl, 2012; Geiger, 2011)。它们的复杂程度不高:大多数使用基本的正则表达式或简单的启发式算法,只有少数结合了机器学习技术。虽然它们的数量明显少于人类编辑者,但完成的编辑量占比却异常大 (Tsvetkova et al., 2017; Zheng et al., 2019; Steiner, 2014)。
与人类-人类(H–H)互动相比,机器人-机器人(bot–bot)互动更具互惠性和平衡性,但没有表现出地位效应 (Tsvetkova et al., 2017)。尽管机器人在长时间内更有可能参与彼此之间的反复回退(back-and-forth reverts),但这些意外遭遇很少表示直接的观点冲突,而是构成日常的生产性维护工作,或反映其人类所有者之间存在的冲突(Geiger & Halfaker, 2017)。人类编辑者主要与“监管机器人”(policing bots)互动,他们批评的主要是机器人执行规范的合法性,而非制裁本身,这表明编辑者将机器人视为其人类所有者的延伸,而非独立的智能体(Clément & Guitton, 2015)。
机器人对于维基百科的维护和运营至关重要。机器人生态系统的多样性保证了系统的稳健性和韧性。例如,在反破坏机器人ClueBot NG随机中断期间,网站最终追赶上了进度,尽管比平时慢,但这得益于质量控制网络的异质性,该网络包括瞬时全自动化机器人、快速工具辅助人类(半机器人,cyborgs)、通过网页浏览器编辑的人类以及特殊的批处理脚本(Geiger & Halfaker, 2013)。维基百科表明,成功的机器人治理和监管不一定非要牺牲分布式开发和多样性。机器的算法简单性、独立性和异质性促进了系统的整体成功和韧性,但也可能在较小尺度上的通信中引入意想不到的复杂性和不确定性(Hilbert & Darmon, 2020)。
信息传播/感染 (Contagion)
与竞争、协调和合作场景下的策略性相互依赖不同,传播的主要机制是社会影响:即依赖他人信息来应对不确定性,以及为融入社会而遵守他人期望的倾向 (Cialdini, 2008; Deutsch & Gerard, 1955; Turner, 1991; Fowler & Christakis, 2010)。在人机系统中,机器人尽管对个体的直接影响有限,却能在集体层面产生显著影响,因为在网络中,微小效应可引发连锁反应(chain reactions)和级联效应 (cascades)(Leskovec et al., 2007; Watts, 2002; Pescetelli et al., 2022)。在社交媒体这样的信息传播网络中,社交机器人的影响力不容小觑。它们影响舆论的方式,往往不是靠强大的说服力,而是通过数量优势、不知疲倦的持久性,以及在网络中的位置来放大其效果,来间接地影响人类。它们甚至可以通过影响人们表达观点的信心,来触发“沉默的螺旋”效应,放大边缘的声音 (Ross et al., 2019)。所以说,即使机器人对人类观点的直接影响微弱,它们也能通过持续性、战略定位和数量优势在集体层面产生显著影响。
信息传播的人机系统包括:
推特
Twitter上的“感染”
Twitter(2022年更名为X)微博客平台上的社交机器人(social bots)是伪装成人类的隐蔽自动化账户,旨在增加关注者、传播信息和推广产品。机器人及其检测方法已经共同演进,产生了越来越复杂的模仿或检测策略 (Ferrara et al., 2016; Beskow & Carley, 2018; Cresci, 2020; Davis et al., 2016; Duh et al., 2018; Orabi et al., 2020; Varol et al., 2017)。但是,由于隐蔽的自主机器人、有人管理的账户、被黑账户、半机器人(cyborgs)、傀儡账户(sock puppets)和协同僵尸网络之间存在重叠,检测本身受到限制 (Abokhodair et al., 2015; Bastos & Mercea, 2019; Chu et al., 2010; Grimme et al., 2017)。估计表明,9%至15%的Twitter用户是机器人 (Varol et al., 2017; Chu et al., 2012),且机器人活动通常在有争议的政治事件周围增加 (Stella et al., 2018)。
Twitter社交机器人不受社交本能驱使,也不会感到疲劳。它们通过回复和提及参与社交互动少于人类,但会产生更多内容 (Pozzana & Ferrara, 2020)。这些机器人主要进行转发——这是一种表示支持和获得关注者的被动策略——但在吸引朋友和关注者方面不如人类成功 (Varol et al., 2017)。总体而言,它们的连接性较弱,机器人之间(2%)、机器人与人类之间(19%)以及人类与机器人之间(3%)的互动,远不如人类与人类之间(76%)的互动普遍 (Stella et al., 2018)。
尽管它们的社交行为基本、网络融入度弱,Twitter机器人却显著影响着政治传播、公众舆论、选举和市场。它们在与政治事件 (Ferrara, 2017; Forelle et al., 2015; Howard et al., 2018; Howard & Kollanyi, 2016; Shao et al., 2018; Suárez-Serrato et al., 2016; Yan et al., 2023)、新冠肺炎(COVID-19)(Himelein-Wachowiak et al., 2021; Yang et al., 2020) 以及股票市场投资 (Fan et al., 2020) 相关的错误信息传播中发挥了重要作用。机器人可以通过鼓励关注和对话来影响人类互动网络 (Hwang et al., 2012),并通过回复和提及来针对有影响力的人类,从而在早期放大低可信度内容 (Shao et al., 2018)。机器人的庞大数量增强了它们的可见性和影响力,以引发深层信息级联 (Stella et al., 2019)。机器人同样链接到来自低可信度网站的真实和虚假新闻,但人们更喜欢虚假内容,这使得人类最终要为虚假新闻的传播负责 (Vosoughi et al., 2018)。
Twitter机器人也促成了负面情绪和冲突升级。它们从边缘行动,针对核心人类用户以施加间接影响。它们放大现有的负面情绪,有选择地推广煽动性内容,通常只针对其中一方 (Stella et al., 2018)。它们的成功源于利用人类倾向于与相似他人联系并参与强化自己信念的信息(Gorodnichenko et al., 2021)。因此,机器人增加了意识形态两极分化,并对社交媒体上的民主讨论产生了负面影响,正如2016年美国总统大选 (Bessi & Ferrara, 2016)、2016年英国脱欧公投 (Gorodnichenko et al., 2021) 和2017年加泰罗尼亚独立公投 (Stella et al., 2018) 中所见。
总之,Twitter的隐蔽社交机器人被认为是有害的,促使平台对其进行清除 (BBC News, 2018; Dang & Paul, 2022)。它们的优势在于间接行动:它们扭曲平台的推荐系统以偏向内容受欢迎度 (Pescetelli et al., 2022),并利用人类的行为弱点,如寻求关注、确认偏误、道德愤怒和意识形态同质性。
集体决策 (Collective decision-making)
最后,在集体决策方面,机器能够为人类带来全新的视角。集体决策指群体通过整合个体意见来做出选择或解决问题,它影响着团队协作、投票、科学创新和文化进化等多种社会现象 (Bang & Firth, 2017)。在人机系统中,算法可引入多样性,从而改善决策。最经典的例子莫过于AlphaGo,它不受人类思维定式的影响,下出了许多“反直觉”的棋步,极大地激发了人类棋手的创新,提升了他们整体的决策能力 (Choi et al, 2023; Shin et al., 2021; Shin et al., 2023)。然而,这种“异质性”也可能带来挑战:当算法被引入人类序列解决问题的链条中时,创新解决方案会让直接追随者受益,但团队准确性不会产生持久影响,因为人类更倾向于复制人类的解决方案而非算法的解决方案 (Brinkmann et al., 2022)。而且,正因为机器的方案太过新颖,人类可能难以理解和采纳,从而限制了其积极作用的发挥。
集体决策的人机系统包括:
临床诊断 (clinical diagnosis)
公民科学 (citizen science)
内容审核 (content moderation)
混合预测 (hybrid forecasting)
延伸讨论:如何构建更好的人机社会?
延伸讨论:如何构建更好的人机社会?
通过上述分析,我们看到,一个由人类和机器共同构成的社会充满了机遇与挑战。那么,我们该如何引导这个新兴社会走向一个更稳定、高效和公平的未来?论文从研究、设计和政策三个层面,为我们指明了方向。
研究
首先,对科学研究的启示是,我们迫切需要建立一门真正的“人机社会学”。过去的研究往往偏向工程学和优化,缺乏社会科学的深层洞见,无法捕捉整个系统的复杂动态。面对生成式AI表现出的涌现行为,学界亟需深化对系统动态的理解 (Ray, 2023; Webb et al., 2023)。研究框架应采用基于主体的建模,重点勾勒人类与机器人主体的区别(如效用函数、信息获取、学习能力)。研究方法应包括受控实验,比较人机、纯人类和纯机器网络,并区分已知机器人与隐蔽机器人。在在线社区中进行实地干预也是有前景的方向,例如研究社交机器人 (Freitas et al., 2015; Messias et al., 2013; Savage et al., 2016)、交易机器人 (Krafft et al., 2018)、政治机器人 (Bail et al., 2018) 和用于测量平台偏差的“漂移者” (Chen et al., 2021) 等。
研究中必须仔细考虑伦理问题。研究协议应尽量减少干预 (Lorenz, 2023),例如仅在机器人已存在的地方部署隐蔽机器人,并确保其行为无害 (Krafft et al., 2017)。机器人可能因隐私问题面临用户反对 (Aiello et al., 2012),需要深入了解相关伦理和认知问题。
设计
设计社交机器时,应鼓励人类在高效沟通、情境感知、情感识别与响应以及伦理和文化敏感性方面的优势 (Paiva et al., 2018; Wagman & Parks, 2021),以建立信任并促进社会和谐。
由于人际、人机和机机互动不同,机器应针对每种场景专门设计和训练。基于纯人类市场训练的算法在人机谈判中可能表现不佳 (Erlei et al., 2022);基于人类驾驶训练的无人驾驶车辆在相互互动时可能引发交通拥堵 (Chang, 2023)。
AI 设计应采用行为规则和惯例的层级结构,如艾萨克·阿西莫夫的机器人三定律 (Asimov, 2004),并可根据特定情境、影响和意外后果 (Graham & Ackland, 2017) 改编用于机机互动。此外,AI 设计需考虑文化情境,因为人们对机器的认知因年龄、地域和环境而异 (Hidalgo et al., 2021; Awad et al., 2018),且机器反映其开发者的文化并运行于特定的组织环境 (Tsvetkova et al., 2017)。
人机系统具有复杂性,其涌现行为超出了个体组件的简单聚合。为增强弹性和稳健性,AI 设计师应融入复杂适应系统原则,如负反馈、模块化和层级组织 (Pinheiro & Young, 2017)。缺乏多样性的密集网络易受系统性故障影响 (May et al., 2008; Balsa-Barreiro et al., 2020; Bak-Coleman et al., 2021),且容易被控制 (Liu, 2021)。引入增加网络多样性、阻力或负反馈的机器人 (Pescetelli et al., 2021; Mason & Watts, 2012; Navajas et al., 2021),可增强适应性和稳定性。
政策
我们主张对 AI 政策和伦理采取“系统为中心”的方法:政策制定者应将 AI 视为多种机器和算法的集合,而非单一的生存威胁。具有多样性和异质特性的机器往往更有益。信息源、互动速度和目标函数的相似性可能引发灾难性事件,如市场闪崩。因此,政策制定者应聚焦于人机生态系统的多样性、适应性和韧性。
政策制定者还应预见机器与人类的社会共同进化,这将不可避免地改变现有制度和人类行为(例如,将护理工作外包给机器人可能降低护理人员的同理心 (Kenway, 2023);改变社会学习动态、文化传承和创造 (Brinkmann et al., 2023))。
伦理学家应解决诸如“所有机器是否应平等”以及“是否允许地位等级存在(这可能反映并加剧现有社会经济不平等) ”等问题。
参考文献
Abokhodair, N, Yoo, D. & McDonald, D. W. Dissecting a social botnet: growth, content and influence in Twitter. In Proc. 18th ACM Conference on Computer Supported Cooperative Work and Social Computing 839–851 (ACM, 2015).
Adam, M. T. P, Teubner, T. & Gimpel, H. No rage against the machine: how computer agents mitigate human emotional processes in electronic negotiations. Group Decis. Negot. 27, 543–571 (2018).
Aiello, L. M., Deplano, M., Schifanella, R. & Ruffo, G. People are strange when you’re a stranger: impact and influence of bots on social networks. Proc. Int. AAAI Conf. Weblogs Soc. Media 6, 10–17 (2012).
Aparicio, D. & Misra, K. In Artificial Intelligence of Marketing (Review of Marketing Research, Vol. 20) (eds Sudhir, K. & Toubia, O.) 103–124 (Emerald Publishing, 2023).
Asimov, I. (2004). I, Robot. Spectra.
Awad, E., Dsouza, S., Kim, R., Schulz, J., Gordon, J., Tenenbaum, J. B., & Rahwan, I. (2018). The moral machine experiment. Nature, 563, 59–64.
Bail, C. A. et al. Exposure to opposing views on social media can increase political polarization. Proc. Natl Acad. Sci. USA 115, 9216–9221 (2018).
Bak-Coleman, J. B., Alfano, M., Barfuss, W., Bergstrom, C. T., Centeno, M. A., D. S. O’Connor, M., . . . O’Connor, K. (2021). Stewardship of global collective behavior. Proc. Natl Acad. Sci. USA, 118, e2025764118.
Balsa-Barreiro, J., Vié, A., Morales, A. J., & Cebrián, M. (2020). Deglobalization in a hyper-connected world. Palgrave Commun., 6, 28.
Bang, D. & Frith, C. D. Making better decisions in groups. R. Soc. Open Sci. 4, 170193 (2017).
Bao, T, Nekrasova, E, Neugebauer, T. & Riyanto, Y. E. Algorithmic Trading in Experimental Markets with Human Traders: A Literature Survey (Edward Elgar Publishing, 2022).
Bastos, M. T. & Mercea, D. The Brexit botnet and user-generated hyperpartisan news. Soc. Sci. Comput. Rev. 37, 38–54 (2019).
Beskow, D. M. & Carley, K. M. Bot conversations are different: leveraging network metrics for bot detection in Twitter. In 2018 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining 825–832 (IEEE, 2018).
Bessi, A. & Ferrara, E. Social bots distort the 2016 U.S. Presidential election online discussion. First Monday 21, 11 (2016).
Boehmer, E, Fong, K. & Wu, J. Algorithmic trading and market quality: international evidence. J. Financ. Quant. Analysis 56, 2659–2688 (2021).
Bogert, E, Schecter, A. & Watson, R. T. Humans rely more on algorithms than social influence as a task becomes more difficult. Sci. Rep. 11, 8028 (2021).
Brinkmann, L. et al. Machine culture. Nat. Hum. Behav. 7, 1855–1868 (2023).
Brinkmann, L. et al. Hybrid social learning in human–algorithm cultural transmission. Phil. Trans. R. Soc. A 380, 20200426 (2022).
Brogaard, J, Hendershott, T. & Riordan, R. High-frequency trading and price discovery. Rev. Financ. Stud. 27, 2267–2306 (2014).
Budish, E, Cramton, P. & Shim, J. The high-frequency trading arms race: frequent batch auctions as a market design response. Q. J. Econ. 130, 1547–1621 (2015).
Calvano, E, Calzolari, G, Denicolò, V. & Pastorello, S. Artificial intelligence, algorithmic pricing, and collusion. Am. Econ. Rev. 110, 3267–3297 (2020a).
Calvano, E, Calzolari, G, Denicolò, V, Harrington, J. E. & Pastorello, S. Protecting consumers from collusive prices due to AI. Science 370, 1040–1042 (2020b).
Candrian, C. & Scherer, A. Rise of the machines: delegating decisions to autonomous AI. Comput. Hum. Behav. 134, 107308 (2022).
Chaboud, A. P, Chiquoine, B, Hjalmarsson, E. & Vega, C. Rise of the machines: algorithmic trading in the foreign exchange market. J. Finance 69, 2045–2084 (2014).
Chang, D. (2023, September 22). Pushing THEIR buttons! texas drivers are left furious as 20 Cruise self-driving cars cause gridlock in Austin—as company blames pedestrian traffic. Mail Online.
Chen, C., Li, G., Fan, L. & Qin, J. The impact of automated investment on peer-to-peer lending: investment behavior and platform efficiency. J. Glob. Inf. Manag. 29, 1–22 (2021).
Chen, L, Mislove, A. & Wilson, C. An empirical analysis of algorithmic pricing on Amazon marketplace. In Proc. 25th International Conference on World Wide Web 1339–1349 (ACM, 2016).
Choi, S., Kang, H., Kim, N. & Kim, J. How does AI improve human decision-making? Evidence from the AI-powered Go program. Preprint at SSRN https://doi.org/10.2139/ssrn.3893835 (2023).
Chu, Z, Gianvecchio, S, Wang, H. & Jajodia, S. Who is tweeting on Twitter: human, bot, or cyborg? In Proc. 26th Annual Computer Security Applications Conference 21–30 (ACM, 2010).
Chu, Z, Gianvecchio, S, Wang, H. & Jajodia, S. Detecting automation of Twitter accounts: are you a human, bot, or cyborg? IEEE Trans. Depend. Secure Comput. 9, 811–824 (2012).
Chugunova, M. & Sele, D. We and it: an interdisciplinary review of the experimental evidence on how humans interact with machines. J. Behav. Exp. Econ. 99, 101897 (2022).
Cialdini, R. B. Influence: Science and Practice (Allyn & Bacon, 2008).
Clément, M. & Guitton, M. J. Interacting with bots online: users’ reactions to actions of automated programs in Wikipedia. Comput. Hum. Behav. 50, 66–75 (2015).
Cresci, S. A decade of social bot detection. Commun. ACM 63, 72–83 (2020).
Dang, S. & Paul, K. Twitter says it removes over 1 million spam accounts each day. Reuters https://www.reuters.com/technology/twitter-says-it-removes-over-1-million-spam-accounts-each-day-2022-07-07/ (2022).
Davis, C. A, Varol, O, Ferrara, E, Flammini, A. & Menczer, F. BotOrNot: a system to evaluate social bots. In Proc. 25th International Conference Companion on World Wide Web 273–274 (ACM, 2016). De Melo, C. M, Marsella, S. & Gratch, J. Human cooperation when acting through autonomous machines. Proc. Natl Acad. Sci. USA 116, 3482–3487 (2019).
Deutsch, M. & Gerard, H. B. A study of normative and informational social influences upon individual judgment. J. Abnorm. Soc. Psych. 51, 629–636 (1955).
Dietvorst, B. J, Simmons, J. P. & Massey, C. Algorithm aversion: people erroneously avoid algorithms after seeing them err. J. Exp. Psych. Gen. 144, 114–126 (2015).
Duh, A, Slak Rupnik, M. & Korošak, D. Collective behavior of social bots is encoded in their temporal Twitter activity. Big Data 6, 113–123 (2018).
Erlei, A, Das, R, Meub, L, Anand, A. & Gadiraju, U. For what it’s worth: humans overwrite their economic self-interest to avoid bargaining with AI systems. In Proc. 2022 CHI Conference on Human Factors in Computing Systems 1–18 (ACM, 2022).
Fan, R, Talavera, O. & Tran, V. Social media bots and stock markets. Eur. Financ. Manag. 26, 753–777 (2020). Fan, R., Talavera, O. & Tran, V. Social media bots and stock markets. Eur. Financ. Manag. 26, 753–777 (2020).
Ferrara, E. Disinformation and social bot operations in the run up to the 2017 French presidential election. First Monday 22, 8 (2017).
Ferrara, E., Varol, O., Davis, C., Menczer, F. & Flammini, A. The rise of social bots. Commun. ACM 59, 96–104 (2016).
Fogg, B. J. & Nass, C. How users reciprocate to computers: an experiment that demonstrates behavior change. In Proc. CHI ’97 Extended Abstracts on Human Factors in Computing Systems 331–332 (ACM, 1997).
Forelle, M, Howard, P, Monroy-Hernández, A. & Savage, S. Political bots and the manipulation of public opinion in Venezuela. Preprint at arXiv https://doi.org/10.48550/arXiv.1507.07109 (2015).
Fowler, J. H. & Christakis, N. A. Cooperative behavior cascades in human social networks. Proc. Natl Acad. Sci. USA 107, 5334–5338 (2010).
Freitas, C., Benevenuto, F., Ghosh, S. & Veloso, A. Reverse engineering socialbot infiltration strategies in Twitter. In Proc. 2015 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining 25–32 (ACM, 2015).
Geiger, R. S. & Halfaker, A. Operationalizing conflict and cooperation between automated software agents in Wikipedia: a replication and expansion of ‘even good bots fight’. Proc. ACM Hum.–Comput. Interact. 1, 1–33 (2017).
Geiger, R. S. & Halfaker, A. When the levee breaks: without bots, what happens to Wikipedia’s quality control processes? In Proc. 9th International Symposium on Open Collaboration 1–6 (ACM, 2013).
Geiger, R. S. in Critical Point of View: A Wikipedia Reader (eds Lovink, G. & Tkacz, N.) 78–93 (Institute of Network Cultures, 2011).
Gorodnichenko, Y, Pham, T. & Talavera, O. Social media, sentiment and public opinions: evidence from #Brexit and #USElection. Eur. Econ. Rev. 136, 103772 (2021).
Graham, T., & Ackland, R. (2017). In R. W. Gehl & M. Bakardjieva (Eds.), Socialbots and Their Friends: Digital Media and the Automation of Sociality (pp. 187–206). Routledge.
Grimme, C, Preuss, M, Adam, L. & Trautmann, H. Social bots: human-like by means of human control? Big Data 5, 279–293 (2017).
Halfaker, A. & Riedl, J. Bots and cyborgs: Wikipedia’s immune system. Computer 45, 79–82 (2012).
Hagströmer, B. & Nordén, L. The diversity of high-frequency traders. J. Financ. Mark. 16, 741–770 (2013)
Hasbrouck, J. & Saar, G. Low-latency trading. J. Financ. Mark. 16, 646–679 (2013).
Hayes, B, Ullman, D, Alexander, E, Bank, C. & Scassellati, B. People help robots who help others, not robots who help themselves. In Proc. 23rd IEEE International Symposium on Robot and Human Interactive Communication 255–260 (IEEE, 2014).
Hendershott, T, Jones, C. M. & Menkveld, A. J. Does algorithmic trading improve liquidity? J. Finance 66, 1–33 (2011).
Hidalgo, C. A., Orghian, D., Canals, J. A., Almeida, F. D. & Martin, N. How Humans Judge Machines (MIT Press, 2021).
Hilbert, M. & Darmon, D. How complexity and uncertainty grew with algorithmic trading. Entropy 22, E499 (2020).
Hilbert, M. & Darmon, D. Large-scale communication is more complex and unpredictable with automated bots. J. Commun. 70, 670–692 (2020).
Himelein-Wachowiak, M. et al. Bots and misinformation spread on social media: implications for COVID-19. J. Med. Internet Res. 23, e26933 (2021).
Hirschey, N. Do high-frequency traders anticipate buying and selling pressure? Manag. Sci. 67, 3321–3345 (2021).
Howard, P, Woolley, S. & Calo, R. Algorithms, bots, and political communication in the US 2016 election: the challenge of automated political communication for election law and administration. J. Inf. Tech. Polit. 15, 81–93 (2018).
Howard, P. N. & Kollanyi, B. Bots, #strongerIn, and #brexit: computational propaganda during the UK-EU referendum. Preprint at arXiv https://doi.org/10.48550/arXiv.1606.06356 (2016).
Hurtado, S, Ray, P. & Marculescu, R. Bot detection in Reddit political discussion. In Proc. Fourth International Workshop on Social Sensing 30–35 (ACM, 2019). Nature Human Behaviour | Volume 8 | October 2024 | 1864–1876 1876 Perspective https://doi.org/10.1038/s41562-024-02001-8
Hwang, T, Pearce, I. & Nanis, M. Socialbots: voices from the fronts. Interactions 19, 38–45 (2012).
Ishowo-Oloko, F. et al. Behavioural evidence for a transparency–efficiency tradeoff in human–machine cooperation. Nat. Mach. Intell. 1, 517–521 (2019).
Jarrow, R. A. & Protter, P. A dysfunctional role of high frequency trading in electronic markets. Int. J. Theor. Appl. Finance 15, 1250022 (2012)
Jhaver, S, Birman, I, Gilbert, E. & Bruckman, A. Human–machine collaboration for content regulation: the case of Reddit automoderator. ACM Trans. Comput. Hum. Interact. 26, 1–35 (2019).
Johnson, J. P, Rhodes, A. & Wildenbeest, M. Platform design when sellers use pricing algorithms. Econometrica 91, 1841–1879 (2023).
Johnson, N. et al. Abrupt rise of new machine ecology beyond human response time. Sci. Rep. 3, 2627 (2013).
Karpus, J, Krüger, A, Verba, J. T, Bahrami, B. & Deroy, O. Algorithm exploitation: humans are keen to exploit benevolent AI. iScience 24, 102679 (2021).
Kenway, E. ‘Care bots’: a dream for carers or a dangerous fantasy? Observer (21 May 2023).
Kirilenko, A, Kyle, A. S, Samadi, M. & Tuzun, T. The flash crash: high-frequency trading in an electronic market. J. Finance 72, 967–998 (2017).
Klein, T. Autonomous algorithmic collusion: Q-learning under sequential pricing. RAND J. Econ. 52, 538–558 (2021).
Köbis, N, Bonnefon, J.-F. & Rahwan, I. Bad machines corrupt good morals. Nat. Hum. Behav. 5, 679–685 (2021).
Krach, S. et al. Can machines think? Interaction and perspective taking with robots investigated via fMRI. PLoS ONE 3, e2597 (2008).
Krafft, P. M., Della Penna, N. & Pentland, A. S. An experimental study of cryptocurrency market dynamics. In Proc. 2018 CHI Conference on Human Factors in Computing Systems 1–13 (ACM, 2018).
Krafft, P. M., Macy, M. & Pentland, A. S. Bots as virtual confederates: design and ethics. In Proc. 2017 ACM Conference on Computer Supported Cooperative Work and Social Computing 183–190 (ACM, 2017)
Krügel, S, Ostermaier, A. & Uhl, M. ChatGPT’s inconsistent moral advice influences users’ judgment. Sci. Rep. 13, 4569 (2023).
Leib, M, Köbis, N. C, Rilke, R. M, Hagens, M. & Irlenbusch, B. Corrupted by algorithms? How AI-generated and human-written advice shape (dis)honesty. Econ. J. 134, 766–784 (2024).
Leskovec, J., Adamic, L. A. & Huberman, B. A. The dynamics of viral marketing. ACM Trans. Web 1, 5 (2007).
Liu, Z. (2021). Sociological perspectives on artificial intelligence: a typological reading. Sociol. Compass, 15, e12851.
Logg, J. M, Minson, J. A. & Moore, D. A. Algorithm appreciation: people prefer algorithmic to human judgment. Organ. Behav. Hum. Decis. 151, 90–103 (2019).
Lorenz, T. Welcome to the age of automated dating. The Washington Post (23 April 2023)
Ma, M.-C. & Lalor, J. P. An empirical analysis of human–bot interaction on Reddit. In Proc. Sixth Workshop on Noisy User-generated Text 101–106 (ACL, 2020).
March, C. Strategic interactions between humans and artificial intelligence: lessons from experiments with computer players. J. Econ. Psychol. 87, 102426 (2021).
Mason, W., & Watts, D. J. (2012). Collaborative learning in networks. Proc. Natl Acad. Sci. USA, 109, 764–769.
Massanari, A. L. in Socialbots and Their Friends Ch. 6 (Routledge, 2016).
May, R. M., Levin, S. A., & Sugihara, G. (2008). Ecology for bankers. Nature, 451, 893–894.
McCabe, K, Houser, D, Ryan, L, Smith, V. & Trouard, T. A functional imaging study of cooperation in two-person reciprocal exchange. Proc. Natl Acad. Sci. USA 98, 11832–11835 (2001).
Menkveld, A. J. The economics of high-frequency trading: taking stock. Annu. Rev. Financ. Econ. 8, 1–24 (2016)
Messias, J., Schmidt, L., Oliveira, R. A. R. & de Souza, F. B. You followed my bot! Transforming robots into influential users in Twitter. First Monday 18, 1–14 (2013).
Nass, C, Steuer, J. & Tauber, E. R. Computers are social actors. In Proc. SIGCHI Conference on Human Factors in Computing Systems 72–78 (ACM, 1994).
Nass, C. & Moon, Y. Machines and mindlessness: social responses to computers. J. Soc. Issues 56, 81–103 (2000).
Navajas, J., Niella, T., Garbulsky, G., Bahrami, B. & Sigman, M. Aggregated knowledge from a small number of debates outperforms the wisdom of large crowds. Nat. Hum. Behav. 2, 126–132 (2018).
Niederer, S. & van Dijck, J. Wisdom of the crowd or technicity of content? Wikipedia as a sociotechnical system. New Media Soc. 12, 1368–1387 (2010).
Oliveira, R, Arriaga, P, Santos, F. P, Mascarenhas, S. & Paiva, A. Towards prosocial design: a scoping review of the use of robots and virtual agents to trigger prosocial behaviour. Comput. Hum. Behav. 114, 106547 (2021).
Orabi, M, Mouheb, D, Al Aghbari, Z. & Kamel, I. Detection of bots in social media: a systematic review. Inf. Process. Manag. 57, 102250 (2020).
Paiva, A., Mascarenhas, S., Petisca, S., Correia, F., & Alves-Oliveira, P. (2018). In New Interdisciplinary Landscapes in Morality and Emotion (pp. 125–139). Routledge.
Pescetelli, N., Rutherford, A., & Rahwan, I. (2021). Modularity and composite diversity affect the collective gathering of information online. Nat. Commun., 12, 3195.
Pescetelli, N., Barkoczi, D. & Cebrian, M. Bots influence opinion dynamics without direct human–bot interaction: the mediating role of recommender systems. Appl. Net. Sci. 7, 46 (2022).
Pinheiro, R., & Young, M. (2017). [Chapter title missing in source]. In Theory and Method in Higher Education Research (Vol. 3, pp. 119–136). Emerald Publishing.
Pozzana, I. & Ferrara, E. Measuring bot and human behavioral dynamics. Front. Phys. 8, 125 (2020).
Ray, P. P. ChatGPT: a comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope.
Rosenthal-von der Pütten, A. M, Krämer, N. C, Hoffmann, L, Sobieraj, S. & Eimler, S. C. An experimental study on emotional reactions towards a robot. Int. J. Soc. Robot. 5, 17–34 (2013).
Ross, B. et al. Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks. Eur. J. Inf. Syst. 28, 394–412 (2019).
Salomons, N, van der Linden, M, Sebo, S. S. & Scassellati, B. Humans conform to robots: disambiguating trust, truth, and conformity. In Proc. 13th ACM/IEEE International Conference on Human-Robot Interaction 187–195 (ACM, 2018).
Salomons, N, Sebo, S. S, Qin, M. & Scassellati, B. A minority of one against a majority of robots: robots cause normative and informational conformity.ACM Trans. Hum.-Robot Interact. 10, 1–22 (2021).
Santos, F. P, Pacheco, J. M, Paiva, A. & Santos, F. C. Evolution of collective fairness in hybrid populations of humans and agents. Proc. AAAI Conf. Artif. Intell. 33, 6146–6153 (2019).
Savage, S., Monroy-Hernandez, A. & Höllerer, T. Botivist: calling volunteers to action using online bots. In Proc. 19th ACM Conference on Computer-Supported Cooperative Work and Social Computing 813–822 (ACM, 2016)
Schniter, E, Shields, T. W. & Sznycer, D. Trust in humans and robots: economically similar but emotionally different. J. Econ. Psychol. 78, 102253 (2020).
Sebo, S, Stoll, B, Scassellati, B. & Jung, M. F. Robots in groups and teams: a literature review. Proc. ACM Hum.–Comput. Interact. 4, 1–36 (2020).
Shao, C. et al. The spread of low-credibility content by social bots. Nat. Commun. 9, 4787 (2018).
Sharma, G, Guo, H, Shen, C. & Tanimoto, J. Small bots, big impact: solving the conundrum of cooperation in optional Prisoner’s Dilemma game through simple strategies. J. Roy. Soc. Interface 20, 20230301 (2023).
Shin, M., Kim, J. & Kim, M. Human learning from artificial intelligence: evidence from human Go players’ decisions after AlphaGo. P. Annu. Meet. Cogn. Sci. Soc. 43, 1795–1801 (2021).
Shin, M., Kim, J., van Opheusden, B. & Griffiths, T. L. Superhuman artificial intelligence can improve human decision-making by increasing novelty. Proc. Natl Acad. Sci. USA 120, e2214840120 (2023).
Siegel, M, Breazeal, C. & Norton, M. I. Persuasive robotics: the influence of robot gender on human behavior. In 2009 IEEE/ RSJ International Conferen
Slater, M. et al. A virtual reprise of the Stanley Milgram obedience experiments. PLoS ONE 1, e39 (2006).
Steiner, T. Bots vs. Wikipedians, anons vs. logged-ins (redux): A global study of edit activity on Wikipedia and Wikidata. In Proceedings of The International Symposium on Open Collaboration, 1–7 (ACM, 2014).
Stella, M, Ferrara, E. & De Domenico, M. Bots increase exposure to negative and inflammatory content in online social systems. Proc. Natl Acad. Sci. USA 115, 12435–12440 (2018).
Stella, M, Cristoforetti, M. & Domenico, M. D. Influence of augmented humans in online interactions during voting events. PLoS ONE 14, e0214210 (2019).
Suárez-Serrato, P, Roberts, M. E, Davis, C. & Menczer, F. in Social Informatics (eds Spiro, E. & Ahn, Y.-Y.) 269–278 (Springer International Publishing, 2016).
Suárez-Serrato, P., Roberts, M. E., Davis, C. & Menczer, F. in Social Informatics (eds Spiro, E. & Ahn, Y.-Y.) 269–278 (Springer International Publishing, 2016).
Suri, S. & Watts, D. J. Cooperation and contagion in web-based, networked public goods experiments. PLoS ONE 6, e16836 (2011).
Takko, T, Bhattacharya, K, Monsivais, D. & Kaski, K. Human–agent coordination in a group formation game. Sci. Rep. 11, 10744 (2021).
Tsvetkova, M, Yasseri, T, Pescetelli, N. et al. A new sociology of humans and machines. Nat Hum Behav 8, 1864–1876 (2024).
Tsvetkova, M., García-Gavilanes, R., Floridi, L. & Yasseri, T. Even good bots fight: the case of Wikipedia. PLoS ONE 12, e0171774 (2017).
Turner, J. C. Social Influence (Thomson Brooks/Cole Publishing, 1991).
Varol, O, Ferrara, E, Davis, C, Menczer, F. & Flammini, A. Online human–bot interactions: detection, estimation, and characterization. Proc. Int. AAAI Conf. Weblogs Soc. Media 11, 280–289 (2017).
Vosoughi, S, Roy, D. & Aral, S. The spread of true and false news online. Science 359, 1146–1151 (2018).
Wagman, K. B., & Parks, L. (2021). Beyond the command: feminist STS research and critical issues for the design of social machines. Proc. ACM Hum.–Comput. Interact., 5, 1–20.
Watts, D. J. A simple model of global cascades on random networks. Proc. Natl Acad. Sci. USA 99, 5766–5771 (2002).
Webb, T., Holyoak, K. J. & Lu, H. Emergent analogical reasoning in large language models. Nat. Hum. Behav. 7, 1526–1541 (2023).
Werner, T. Algorithmic and human collusion. Preprint at SSRN https://doi.org/10.2139/ssrn.3960738 (2022).
Yan, H. Y, Yang, K.-C, Shanahan, J. & Menczer, F. Exposure to social bots amplifies perceptual biases and regulation propensity. Sci. Rep. 13, 20707 (2023).
Yang, K.-C, Torres-Lugo, C. & Menczer, F. Prevalence of low-credibility information on Twitter during the COVID-19 outbreak. Preprint at arXiv https://doi.org/10.48550/arXiv.2004.14484 (2020).
Zheng, L. N, Albano, C. M, Vora, N. M, Mai, F. & Nickerson, J. V. The roles bots play in Wikipedia. Proc. ACM Hum.-Comput. Interact. 3, 215:1–215:20 (2019).
(参考文献可上下滑动查看)
「大模型时代下的人机交互与协同」
读书会
在智能时代,虽然机器学习和深度学习算法在自然语言处理、计算机视觉和语音识别等领域取得了显著进展,但这些技术依赖大量标注数据,并在面对复杂动态环境时表现出决策能力的局限,特别是在需要直觉、创造力和道德判断的任务上远逊于人类。相比之下,人类智能能够基于背景信息在不完全条件下高效决策,适应变化与不确定性,并作出伦理情感驱动的判断。因此,单纯依靠机器智能难以满足复杂任务需求,人机协同成为必要选择,通过两者紧密合作,既能利用机器的运算速度和处理能力,又能借助人类智慧和创造力,实现更高效智能的决策与创新。
在此背景下,集智俱乐部联合中国科学技术大学教授赵云波、华东师范大学副教授吴兴蛟两位老师共同发起「大模型时代下的人机交互与协同」读书会。本次读书会将探讨:人类智能和机器智能各自的优势有哪些?智能边界如何?如何通过更有效的标注策略和数据生成技术来解决数据稀缺问题?如何设计更加高效的人机协作系统,实现高效共赢的效果?如何提高机器决策的可解释性与透明性,确保系统的可信度?如何通过多模态协作融合不同感知通道,应对复杂的决策任务? 读书会从7月5日开始,预计持续约8周。诚挚邀请领域内研究者、寻求跨领域融合的研究者加入,共同探讨。
详情请见:人类与机器的智慧碰撞:人机协同的智能时代读书会启动
推荐阅读
2. NeurIPS 2024|实时交互打破AI瓶颈:GUIDE解锁人机协同新范式
3. Nat.Mach.Intell. AI+psy 速递:大语言模型时代下的人机交互与协作
6. 探索者计划 | 集智俱乐部2025内容团队招募(全职&兼职)
点击“阅读原文”,报名读书会