近日,Meta(原Facebook)发布了一系列新的科学研究,试图再次澄清其平台加剧政治分歧的质疑。这些发表在《科学》和《自然》期刊上的研究,基于对2020年美国总统大选期间Facebook和Instagram用户活动的分析,Meta声称其结果表明算法推荐与政治极化之间没有明确的因果关系。
研究团队与学术机构合作,对同意参与实验的用户进行了多种测试,包括:阻止Facebook用户看到任何“转发”内容;按时间倒序显示信息流,而非算法排序;大幅减少用户看到的“观点相似”来源的内容。这些实验主要为了验证“信息茧房”假说——即社交媒体算法通过只展示用户认同的内容来固化其观点。
Meta在声明中表示:“虽然关于社交媒体对关键政治态度、信念和行为的影响问题尚未完全解决,但这些实验结果表明,几乎没有证据表明Meta平台的关键特性单独导致了有害的‘情感性’极化。”
然而,问题可能比这些实验所测量的更为复杂。社交媒体的政治影响不仅体现在直接的用户互动上,更在于算法机制对整个媒体生态的塑造。例如,Facebook的算法倾向于推广能引发更多讨论的内容,因为这能带来更高的参与度。这种机制无形中激励媒体机构生产更容易引发评论的内容,而研究表明,愤怒、快乐等高唤醒情绪正是网络帖子评论的关键驱动力。
多年来,数字参与度的追求不仅改变了Facebook,也影响了整个数字媒体环境。算法系统倾向于突出那些获得最多分享和讨论的内容,这进一步推动了媒体朝煽动性方向发展。因此,影响政治分歧的不仅是平台上的直接互动,更是这类系统如何改变了内容生产的激励机制。
皮尤研究中心最新的“社交媒体与新闻”研究显示,Facebook是美国成年人最主要的社交媒体新闻来源。这意味着Meta在这方面确实拥有最大的影响力。虽然这些新研究表明社交媒体的某些具体功能对政治观点的影响可能被高估了,但它们并未考虑更广泛的影响范围——新闻环境的改变很可能确实加剧了政治分歧。
研究人员自己也承认研究的局限性,他们只能测试某些被认为可能影响政治极化的关键因素。Meta则将这些结果视为对其系统的辩护。但即使研究人员也指出,这些研究的范围是有限的。
这些研究确实表明,关于社交媒体导致政治极化的某些理论可能存在缺陷,改变特定的算法驱动因素可能不会产生许多人认为的变革性效果。换句话说,这个问题很复杂,没有简单的解决方案,因此单独指责Meta可能并不公平。
值得注意的是,Meta现在正逐渐远离新闻内容,转而更多地推广AI推荐的Reels短视频,因为这能带来更高的用户参与度。也许这确实是减少政治焦虑的更好途径,但需要指出的是,这一转变的主要驱动力仍然是Meta自身的商业需求,而非社会公益。
在这个问题上,我们不应过于相信Meta会“做正确的事”,也不应完全采信其为自己开脱的声明。



