当埃隆·马斯克大刀阔斧改革推特,并不断披露过往内容审核记录以证明社交媒体平台已拥有过度控制讨论的权力时,内容审核已成为当前社交媒体圈的热门议题。
然而,即便马斯克指出了审核流程中存在的缺陷,关键问题依然悬而未决:如何改进?如果内容决策不能完全交由平台内部少数高管团队决定,那么替代方案是什么?
Mate(Facebook)尝试引入外部专家委员会的做法总体上是成功的,但即便如此,其监督委员会也无法裁决每一条内容决策。尽管提供了这种替代性的申诉途径,Mate(Facebook)仍因被指审查和偏见而受到严厉批评。
在某种程度上,某些决策环节不可避免地要落在平台管理方身上——除非能找到另一条路径。
那么,基于个人偏好的“替代信息流”会成为解决之道吗?一些平台正在探索这个方向。据《华盛顿邮报》报道,TikTok目前正在探索名为“内容分级”的概念,旨在防止“成人”内容出现在年轻用户的推送中。
TikTok在这方面正面临日益严格的审查,尤其是涉及危险挑战趋势的内容,已有一些年轻人因参与危险行为而丧生。
埃隆·马斯克也推崇类似的内容控制方法,并将其作为“推特2.0”宏大愿景的一部分。
“能够选择你想要哪个版本的推特可能更好,就像电影分级一样。推文本身的评级可以由发布者自选,然后通过用户反馈进行修正。”
——埃隆·马斯克(@elonmusk),2022年10月29日
在马斯克的设想中,用户将在发布推文时自行分类,读者也可以对其施加某种“成熟度评级”,从而帮助将潜在有害内容移入单独的类别。
这两种方案的最终结果,都意味着用户将能在应用内选择不同级别的体验——从过滤掉较极端评论和讨论的“安全”模式,到提供完整体验的“无过滤”模式(马斯克可能会称之为“硬核”模式)。
这听起来在理论上很有趣,但现实中,用户真的会自我分级他们的推文吗?他们的分级能足够准确,从而使这种过滤方式可行吗?
当然,平台可以对不分类或分类不正确的行为实施惩罚。例如,对于屡犯者,他们的所有推文可能会被自动过滤到更极端的分类中;而其他用户则可以通过让内容在多个或所有信息流中展示,来获得最大的受众覆盖。
这需要用户在创作过程中进行更多手动操作来选择分类,但这或许能缓解一些担忧?
然而,这仍然无法阻止社交媒体平台被用来放大仇恨言论、助长危险运动。在大多数推特或其他社交应用不得不审查用户的情况下,往往是出于造成伤害的威胁,而不仅仅是因为人们被言论冒犯。
例如,当前总统唐纳德·特朗普发布“抢劫开始,枪击就开始”的言论时,担忧主要不在于人们会被这句话冒犯,而在于特朗普的支持者可能将此视为一种“杀人许可”——总统实质上认可使用致命武力来威慑抢劫者。
从逻辑上讲,社交平台不希望其工具被用来以这种方式传播潜在危害。就此而言,自我审查或为帖子选择成熟度评级并不能解决这个核心问题,它只是将这些评论从选择不看的用户那里隐藏起来。
换句话说,这更像是混淆视听,而非提升安全性。但许多人似乎认为,核心问题不在于人们在网上说或想说这些内容,而在于其他人被这些内容冒犯。
事实并非如此。虽然隐藏可能具有冒犯性的材料在减少曝光方面有一定价值(特别是对TikTok上的年轻受众而言),但这仍然无法阻止人们利用社交应用的巨大传播潜力来散布仇恨和危险的行为号召,而这些确实可能导致现实世界的伤害。
本质上,这是一种零散的方案,一种责任稀释。它在某些情况下可能产生一些效果,但无法解决社交平台的核心责任:确保其创建的工具和系统不被用于危险目的。
因为它们已经被这样使用,并且将继续被这样使用。社交平台曾被用来煽动内乱、政治起义、骚乱、军事政变等等。
就在本周,针对Mate(Facebook)的新诉讼启动,指控其“允许埃塞俄比亚暴力和仇恨帖子在Facebook上泛滥,加剧了该国的血腥内战”。该诉讼要求为暴力受害者赔偿20亿美元。
这不仅仅关乎你不同意的政治观点,社交媒体平台可以被用来助长真实而危险的运动。在这种情况下,任何程度的自我认证都可能无济于事——平台始终负有设定规则的责任,以确保应对这类最坏的情况。
或者,规则需要在更高层面由政府和专门机构来制定,以衡量此类内容的影响并采取相应行动。
但归根结底,这里的核心问题并不像许多“言论自由”倡导者所鼓吹的那样,仅仅是允许人们在社交平台上畅所欲言、分享所好。在某种程度上,限制始终存在,护栏始终存在。有时,鉴于社交帖子的放大潜力,这些限制甚至可能超越当地法律。
没有简单的答案,但将其完全交由公众意愿决定,不太可能在所有方面带来更好的局面。



