在新西兰基督城恐怖袭击事件造成50人遇难后,社交媒体平台在传播仇恨言论方面的责任问题再次成为焦点。作为回应,Facebook近日宣布将在其平台全面禁止”赞扬、支持和宣扬白人民族主义与分离主义”的内容。
据Facebook透露,枪击案发生时的直播视频在被删除前已被观看约4000次。事件发生后,平台共删除了约150万个相关视频,其中超过120万个视频在上传阶段就被拦截。这一数据凸显了社交平台在管控极端内容方面面临的严峻挑战。
Facebook在官方声明中表示:”我们的政策长期禁止基于种族、民族或宗教等特征的仇恨行为,这始终包括白人至上主义。此前我们未对白人民族主义和分离主义采取相同标准,是考虑到更广泛的国家主义和分离主义概念。但过去三个月与民间团体和种族关系专家的交流证实,白人民族主义与分离主义实际上无法与白人至上主义和有组织的仇恨团体割裂开来。”
这一决定无疑将引发极右翼团体的强烈反对。值得注意的是,这些团体近年来已将Facebook作为扩大支持基础的主要工具。平台上存在大量游走在政策边缘的极右翼内容,这些内容往往通过激发情绪反应来获取更高互动率,而Facebook的算法机制恰恰会奖励高互动内容,使其获得更多曝光。
除了内容禁令,Facebook还推出了一项新举措:当用户搜索与白人至上主义相关的术语时,系统将引导他们访问”Life After Hate”组织。该组织由前暴力极端分子创立,专门帮助人们脱离仇恨团体。
然而,这些措施能否真正见效仍存疑问。平台上的私密群组已成为极端思想传播的温床,Facebook是否会对这些封闭空间加强监管?同时,政府官员关注的直播功能本身存在的风险仍未得到根本解决。
这引发了一个更深层次的思考:社交平台如何在商业利益与社会责任之间取得平衡?完全取消算法推荐或许能减少极端内容的传播,但也会让平台重回标题党泛滥的时代。Facebook需要做出艰难抉择——是继续追求互动数据,还是建立更健康的内容生态系统。



