虎嗅 前天 15:50
社交媒体与信息茧房:是算法问题还是人性使然?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文探讨了社交媒体引发的“信息茧房”现象。文章首先介绍了“信息茧房”的概念及其在中文世界中的传播,以及人们对个性化推荐算法加剧信息封闭的担忧。随后,文章引用了克里斯·贝尔的《打破社交媒体棱镜》观点,指出接触对立观点可能反而加剧极端化。通过对阿姆斯特丹大学一项利用大语言模型模拟社交网络的研究进行分析,发现即使在理想化的干预策略下,也难以完全修复信息茧房和极化问题。文章还援引了Reddit用户行为研究,表明极化更多是现实政治分裂的映射。最终,文章引用理查德·霍夫施塔特的观点,认为政治偏执和极化是人类固有的局限,而非 solely 归咎于算法,呼吁理解复杂世界,认识到人的局限性。

💡 **“信息茧房”概念的广泛担忧与现实困境**:文章指出,“信息茧房”理论在中文世界广为流传,人们普遍担忧社交媒体的个性化推荐算法加剧了个体的信息封闭,导致对世界理解的狭隘。尽管存在“同温层”、“过滤气泡”等说法,但对信息茧房的实际存在及其对个人信息选择的影响,仍缺乏清晰的实证研究。研究表明,即使接触到对立观点,也可能加剧而非缓解个人立场,说明打破信息茧房并非解决极化的唯一途径。

🔬 **生成式模拟实验揭示算法干预的局限性**:阿姆斯特丹大学的一项研究利用大语言模型模拟了包含真实用户画像的社交网络,并测试了多种干预策略以缓解信息茧房和极化现象。实验结果显示,无论是哪种主流LLM模型,都难以避免回音室效应、影响力集中和极端声音放大等负面现象。部分干预措施仅带来轻微改善,甚至加剧问题,表明单纯的平台层面干预难以根治社交媒体的极化问题。

📊 **极化现象的现实映射与人性局限**:文章引用Reddit用户的行为分析,表明社交媒体上的政治极化程度更多是现实政治分裂的映射,而非平台算法的直接产物。人类本身倾向于与观点相似者聚集,并在面对异见时强化自我认同,导致立场极端化。这与理查德·霍夫施塔特关于政治偏执的论述相呼应,暗示极化与偏执是人类固有的心理情结,无论交流媒介如何变化,都难以完全避免。因此,与其过度责怪算法,不如认识到人类自身的局限性。

🌐 **“社交媒体棱镜”与扭曲的认知**:克里斯·贝尔的“社交媒体棱镜”理论认为,社交媒体并非真实反映世界,而是扭曲用户对自我和他人认知的棱镜。这种扭曲可能导致用户形成错误的自我身份认同和虚假的政治极化,从而使个体变得越来越极端。文章通过对比现实中和网络上制造混乱以博取关注的现象,说明了这种“表演”式的行为在社交媒体上往往能获得更多关注,进一步加剧了负面传播。

长久以来,我们都认识到了社交媒体给我们的生活所带来的新挑战。在这之中,由哈佛大学法学院的凯斯·桑斯坦教授所提出的“信息茧房”的概念在中文世界中得到了广泛传播。

“信息茧房”,顾名思义, 就是我们在社交媒体上只接触到某一类信息,导致个体对于世界的理解被困在狭小的信息之茧中。而随着个性化推荐的算法在社交媒体与短视频平台上的广泛应用,这种对于自我封闭的担忧显得更加迫切,尽管并不严谨,人们也会提到“同温层”,“过滤气泡”,“傻子共振”这样的用语,并且认为算法推荐的发展加剧了传播生态的恶化,导致个体走向封闭,使激烈的观点在社交场域中获得更多的关注。

在今天,社交媒体已经深深地嵌入了人们的日常生活,当个体面对现实世界中的信息爆炸时,对于信息进行过滤与整理似乎是一种必然的选择。为了应对社交媒体带来的挑战,算法工程师们提出了许多平台层面的干预策略。随着推荐算法的不断完善,推送到人们面前的信息已经在变得更加平衡且丰富。

与此同时,人们对于个性化推荐所带来的“信息茧房”或“同温层效应”感到担忧。例如,特定的社交平台会根据用户的政治倾向推荐同质化的内容,导致用户只能接触到片面的信息来源。从而对于良性的公共对话产生负面影响。

怀有警醒的态度生活当然是很好的,然而对于信息茧房在现实层面的具体面貌,目前仍缺乏清晰的研究。我们缺乏对于信息茧房是否存在的实证,并对于它如何影响个人的信息选择也缺乏了解。

事实上,人们选择性地接触信息并不是一个新现象。也有学者指出,“同温层效应” 确实存在,但目前的担忧其实是夸大了事实。“信息茧房”这一概念引发了广泛的担忧,但这是否是一种叫魂式的担忧呢?为了更好应对我们身处的复杂世界,我们需要对于这个过程有更好的研究与理解。

在许多关于信息茧房的讨论中,人们抱有这样一种假设:如果你能接触到多样化的信息,那么就能打破信息茧房。而在杜克大学社会学家克里斯·贝尔的《打破社交媒体棱镜》一书中,他提出了这样的一个问题:如果个体在社交媒体上接触到与自身对立的观点,这是否真的有助于他反思自己?贝尔在他的实验中发现,用户在社交媒体的日常使用中接触到的对立观点,其实并没有帮助他们反思自身,反而让他们的政治立场变得更加极端。所以哪怕信息茧房被打破,社会的极化也并不会消失。

由此,贝尔提出了“社交媒体棱镜”, 他认为社交媒体并不是一面如实反映世界的镜子,而是一个会扭曲用户对自我和他人认知的棱镜。对于人这种扭曲会让用户形成错误的自我身份认同和虚假政治极化,从而变得越来越极端。

贝尔在他的书中提到了一种喜欢在网上发泄情绪,引起大家关注的人。我想我们都很熟悉这样的人物画像,他们的目的不是表达或者寻求共识,而是制造混乱。面对这样的人时,人们很容易做出情绪化的反应。事实上,这种形象在现实中当然也存在,在《卡拉马佐夫兄弟》里,在先前表现糟糕的老卡拉马佐夫来到了一家餐厅,他在心里对自己说:“ 我总是感到,不管我走到哪里都低人一等,每一个人都想对待小丑一样对待我——那就让我真的演一次小丑吧,你们所有人,无一例外,都比我低级。” 他这样想着,然后在餐厅里大闹了一场。而不幸的是,在网络上和在现实中一样,这样的闹剧总能得到更多的关注。

最近,阿姆斯特丹大学的彼得·滕贝里和迈克·拉罗伊两位作者在物理学预印本平台arXiv上发表了一篇论文,并得到了《科学》杂志的关注。在这篇名为《我们能修复社交媒体吗?利用生成式社会模拟测试亲社会干预》 的论文中,他们利用大语言模型生成了500个虚拟用户,并构成一个小型的社交网络。每个用户都根据美国国家选举研究中来自全国选民调查的真实用户画像,被赋予了年龄、性别、宗教信仰、政治倾向和教育程度等特征。

在三项独立的实验中,研究人员分别使用三种主流大型语言模型——ChatGPT、Llama 和 DeepSeek——将虚拟用户扩展为包含兴趣、爱好和职业等更细致特征的个人画像,并基于这些画像生成决策。在实验过程中,系统随机选取的用户需在三种行为中进行选择:从 10 篇随机新闻文章中选择一篇并撰写相关帖子;转发已有帖子;或依据自身画像关注其他用户。用户的选择会受到其信息流内容的影响,该信息流包含 10 条帖子,其中一半来自用户已关注的人,另一半则来自未关注用户的热门帖子。

在每次实验中,虚拟社交网络均运行了一万个周期。然而,无论研究人员采用哪一种 LLM 模型,平台最终都不可避免地出现了三种典型的负面现象:回音室效应、影响力集中,以及极端声音的放大。

该研究随后以理想化形式测试了六种通常用于缓解社交媒体算法问题的干预策略:

1. 按时间顺序推送或随机推送

2. 淡化主流内容

3. 平衡党派内容的桥接算法

4. 优先发布具有高同理心或高推理能力的帖子

5. 隐藏社交媒体统计数据,例如粉丝数量

6. 隐藏个人简介以减少基于身份的信息传递

然而实验结果令人沮丧。只有部分干预措施对于系统起到了轻微的改善作用,但没有一项能够彻底地修复出现极化的系统。事实上,一些干预措施反而加剧了问题。平衡党派内容的桥接算法显著削弱了党派倾向与参与度之间的联系,并略微改善了观点多样性,但同时也加剧了社交媒体中的关注度不平等。按时间顺序推送对减少关注度不平等效果最为显著,但同时也存在弊端:它加剧了极端内容的传播。

按时间顺序推送是一种属于 Web2.0 时代的,更加古早的推送策略。人们倾向认为 BBS 论坛等按时间排序的网络社区,更容易实现注意力的平等,减少社群的分裂与极化;而采用推荐算法的社区,因“回音室效应”容易造成群体间的间隔,进而加速观点极化。而在这两位科学家的模拟中,取消了推荐算法按时间排序推送,反而加剧了极端内容的传播。这是一个有些反常识的发现。

在接受 Ars Technica 的采访时,彼得·滕贝里也提到了他作为一个学者对于在研究中对于 AI 模拟实验的批评与怀疑。但是与此同时,单纯使用观测数据,使得研究者很难验证反事实假设。因此,研究者们也会创建系统的计算机模型,并在此基础上进行实验并验证反事实假设。计算机模拟在社会行为研究领域有着悠久的历史,例如罗伯特·艾克斯罗德就曾在《合作的进化》中使用计算机模拟“重复囚徒困境”竞赛,研究合作的产生与竞赛。这种方法有助于研究网络动力学的结构和发掘社会现象的涌现过程。正如彼得·滕贝里所言:“我仍然要对这些发现持保留态度,意识到这些只是模型,它们捕捉的是一种假设的世界——就像真空中的一头球形奶牛······不幸的是,在这个实验中,我们发现了一种似乎非常稳健的机制。”

而在更早之前,在《自然》杂志 2021 年发表的一项研究中,多伦多大学计算机科学系的研究团队以社区平台 Reddit 过去 14 年间共计 51 亿条评论为样本,分析了用户在 1 万多个子社区中的发言行为。结果显示,Reddit 的社区结构并非仅以“话题”划分,而是深受用户的年龄、性别与政治立场等社会因素影响。研究发现,2012 至 2015 年间,Reddit 上的政治极化程度相对稳定;但在 2016 年美国大选期间,平台的政治极化水平突然显著上升。值得注意的是,这一变化主要由当年新加入的用户推动,而老用户的立场变化极小。这一结果表明,用户的极化程度与平台使用时长关系不大,更可能受外部政治事件驱动,而非社交平台内部行为的积累所致。

在国际学术界,关于社交媒体与政治极化关系的研究多以政治取向为衡量维度。然而,多数实证研究表明,社交媒体并不会显著加剧社会的极化现象。换言之,极化更多是现实政治分裂的映射,而非平台算法所制造的“回音室”或“信息茧房”效应。

也许,更接近现实的解释或许是:社会本身的分裂决定了社交媒体内容的分裂。人们在网络上看到的对立声音,并非由算法催生,而是现实世界的分裂在社交媒体世界的真实反映。即便在不存在算法干预的中性环境中,人类依然倾向于靠近与自己观点相似的群体;而面对异见群体时,自我认同的防御性强化反而会使极端立场更加突出。

事实上,我想起《美国的反智传统》的作者理查德·霍夫施塔特的论述,他早在上世纪60年代就开始批判他所处时代政治的偏执狂传统。“这是一种持续存在的心理情结。” 也许,无论我们用纸媒交流,用电台或是电视交流,还是像现在一样在社交媒体上交流,这样的极化与偏执总是存在的,这是一种我们无法否认,也无法避免的现实。面对历史,也许我们不得不承认,与其怪罪算法,我们更加应当意识到我们作为人类的局限。当然,这也就是说,我们不要放弃,去理解这个我们所生活的世界。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

信息茧房 社交媒体 算法 政治极化 回音室效应 Echo Chamber Social Media Algorithms Political Polarization Filter Bubble
相关文章