云百邦_官网 | Facebook代运营、TikTok代运营、外贸精准获客、AI智能营销

首页 » Meta旗下应用再陷CSAM内容传播风波,监管压力与隐私保护陷两难

Meta旗下应用再陷CSAM内容传播风波,监管压力与隐私保护陷两难

当Meta(Facebook)致力于推进全平台端到端加密计划时,新的调查报告为其内容审核体系再次敲响警钟。据《华尔街日报》披露,独立研究机构发现儿童性虐待材料(CSAM)仍在Meta的社交网络中传播,这使其内容治理能力面临新的质疑。

斯坦福互联网观察站与加拿大儿童保护中心的调查显示,CSAM传播不仅存在于Instagram,更蔓延至Facebook群组生态。部分公开群组甚至以儿童性化为核心主题,规模达数十万成员。Meta发言人回应称已对19万个群组实施搜索降权并封禁数万账户,但承认治理进度未达预期。

更令人不安的是,某些拥有超千万关注的CSAM网络在多次举报后,仍能持续在Instagram进行儿童性虐待直播。这暴露出内容审核系统存在明显漏洞。

面对压力,Meta宣布正从三方面加强治理:
1. 与同业平台建立联合治理机制
2. 升级AI识别技术检测违规内容
3. 扩展网络监测系统,阻断潜在犯罪者联系渠道

然而道高一尺魔高一丈,CSAM传播者正不断调整策略规避检测。值得关注的是,Meta自身数据揭示了问题的严峻性——2021年其向美国失踪与受虐儿童中心举报了2200万份儿童虐待材料,而2020年全美科技公司的相关举报中,94%来自Facebook平台。

这些数据也解释了为何监管机构对Meta的加密计划持审慎态度。若Messenger、IG私信和WhatsApp全面启用端到端加密,外部机构将难以介入调查CSAM传播。这使平台陷入两难:用户隐私权与儿童保护孰轻孰重?

正如特斯拉CEO马斯克在社交平台治理中面临的困境,过度宽松的内容政策可能导致广告商撤离。而Meta今年在营收压力下,曾要求安全团队优先考虑”减少广告商摩擦”的目标,这种商业考量可能影响内容审核资源的分配。

算法推荐机制则构成另一重挑战。Meta的推荐系统本意为连接兴趣相投的用户,却无意中为CSAM网络扩张提供便利。当犯罪组织使用暗语交流时,现有技术难以精准识别。

欧盟监管机构已要求Meta在12月22日前提交Instagram儿童安全保护的具体方案。根据新出台的《数字服务法案》,Meta可能面临巨额罚款。这场博弈不仅关乎企业社会责任,更将重新定义数字时代平台治理的边界。

本文观点编译自海外博主socialmediatoday,仅供参考学习

你将免费获得

获取行业出海方案

请在浏览器中启用JavaScript来完成此表单。