动点科技 13小时前
就算没有算法,社交平台也会让人变极端|Landing AI
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一项荷兰阿姆斯特丹大学的研究团队进行了一项实验,搭建了一个极简社交平台,仅保留发帖、转帖和关注等基础功能,并使用500个基于GPT-4o mini的聊天机器人进行模拟。实验结果显示,即使没有复杂的推荐算法,平台用户(机器人)也出现了明显的阵营分化、注意力不平等以及极端声音放大等现象。研究者尝试了多种平台改良方案,如按时间顺序显示、降低热门账号权重、推送对立阵营内容等,但均未能显著改变这些趋势,甚至在隐藏用户身份信息时,阵营分化反而加剧。这表明社交平台的基本结构本身就足以催生这些问题,并且用户行为在其中扮演了关键角色,反映了数字世界中变形的互动模式。

🤖 **社交平台基本结构易导致阵营化和极端化**:研究模拟了一个无广告、无个性化推荐的极简社交平台,仅通过发帖、转帖和关注等基础互动,便观察到机器人用户迅速形成“抱团”现象,立场相近的互相关注,不同立场间几乎没有交集,这表明平台的基本运作模式本身就倾向于社群内的同质化。

📈 **注意力分配不均与“大V”效应显现**:实验中,一小部分“大V”账号获得了绝大部分粉丝和转帖,导致注意力分布极不均衡。即使在基础的“热门贴”曝光机制下,信息传播也呈现出少数账号垄断话语权的趋势,与现实社交平台中的“头部效应”相似。

📣 **极端观点传播更快更广**:研究发现,立场鲜明甚至偏极端的观点比中立或温和的观点传播得更快更广。这种现象与现实中“标题党”和极端声音更容易吸引注意力的观察一致,表明用户的互动偏好是驱动极端化扩散的重要因素。

📉 **平台改良方案效果有限**:研究测试了按时间顺序显示、降低热门账号权重、推送对立阵营内容、提升理性内容权重、隐藏粉丝/转帖数及账号身份信息等六种常见改良方案,但这些措施未能显著改善阵营分化和极端化问题。尤其是在隐藏身份信息后,阵营分化反而加剧,极端内容获得更多关注,说明用户行为的内在驱动力难以被简单干预。

🪞 **实验反映用户自身行为模式**:研究者指出,实验中的机器人行为模式可能继承了用户在算法主导的网络环境中的习惯和偏见。这面虚拟平台的“镜子”反射出的不仅是社交网络的结构性问题,更是我们在数字世界中已然变形的互动方式,揭示了问题根源可能在于用户自身的参与习惯和选择偏好。

在社交媒体已经深度嵌入日常生活的今天,人们对它的争议往往集中在几个熟悉的症结——政治极化(抱团)、注意力不平等(话语垄断)、极端声音放大(标题党)。不少批评都指向平台背后的推荐算法,但如果把算法完全拿掉,这些现象还会出现吗?

荷兰阿姆斯特丹大学的一组研究人员试着用实验给出答案。他们搭建了一个极简版的社交平台,没有广告,没有复杂的个性化推荐,也没有隐藏的权重机制,只保留发帖、转帖和关注三种最基础的功能。随后,他们放入了500个带有“人格设定”的聊天机器人,这些机器人基于OpenAI的GPT-4o mini运行,拥有固定的人口学属性,比如年龄、政治立场等。发帖时,它们会参考当天的新闻标题;转帖和关注,则完全凭自身判断。平台的时间线很简单:一半内容来自已关注的账号,另一半则是全网转发量最高的“热门贴”。

在五轮实验(每轮都包含1万次互动)后,结果显现出熟悉的轨迹。机器人们迅速分成了阵营:立场接近的互相关注,不同立场几乎没有交集,中间派被孤立在边缘。随后,一小部分“大V”账号获得了大部分粉丝和转帖,注意力分布极不均衡。与此同时,立场鲜明甚至偏极端的内容传播得更快更广,越极端的观点越容易扩散。

研究团队接着测试了六种常见的“平台改良”方案:按时间顺序显示内容、降低热门账号的权重、推送更多对立阵营的内容、提升理性和桥接型内容的权重、隐藏粉丝/转帖数、隐藏账号身份信息。在此前的一些模拟中,“推送异见”曾被证明可以在模拟平台里兼顾高互动与低毒性(即有害、攻击性或恶意挑衅内容比例较低),但在这次实验里,包括这一方式在内的全部干预措施,都未能带来显著改变——抱团账号的互动份额最高只减少了6%。更意外的是,在隐藏用户简介的情境下,阵营分化反而加剧,极端内容获得了更多关注。

这些结果表明,即便没有推荐算法,平台的基本结构也足以催生类似的问题。只要存在“发帖—转帖—关注—再曝光”的循环,网络就会自然演化出阵营化(抱团)、注意力集中(话语垄断)和极端化(标题党)的格局,其背后是互动反应与网络增长之间的反馈回路。

事实也大抵如此。在现实世界中,类似的模式早有迹象:Facebook与多所高校合作的研究显示,即便不动算法,用户在选择关注对象时也会让信息环境迅速向单一立场倾斜;MIT对Twitter的分析则发现,情绪化和极端化的信息更容易引发转发,这种放大效应主要来自用户的反应,而非后台推送。

需要注意的是,这些聊天机器人并非完全“免疫”于算法的长期影响——它们的语言和决策模式,本就建立在一个由算法主导的网络环境的海量语料之上。这意味着,它们在实验中的行为,很可能在某种程度上继承了我们自己在社交平台上的习惯和偏见。某种意义上,这场实验不仅揭示了社交网络的内在结构问题,也像一面镜子,把我们在数字世界里已经变形的互动方式反射了出来。

实验结束后,虚拟平台归于平静,但在真实世界中,这套机制每天都在运转,并持续塑造着我们的网络空间。至于有没有一种方式让这面扭曲的镜子重新映照出真实的自己,这个问题可能暂时还没有谁能够回答。

研究实验所涉及的论文链接:https://arxiv.org/abs/2508.03385

封面来源:由Sora生成自《V for Vendetta》

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

社交平台 算法 用户行为 阵营化 极端化
相关文章