近日,TikTok发布了最新一期《社区准则执行报告》,详细披露了2022年第二季度该平台在内容治理与账户管理方面的具体数据。报告显示,随着用户规模持续扩大,平台面临的内容审核压力也同步攀升。
今年4月至6月期间,TikTok因违反政策等原因下架了超过1.13亿条视频,较上一季度增长11%。这一数字的上升与平台用户增长趋势基本吻合,但也反映出滥用行为仍在持续蔓延。
值得关注的是,TikTok在主动治理方面取得了明显进展:
- 视频主动移除率从第一季度的83.6%提升至89.1%
- 零播放量视频移除率从60.8%大幅提升至74.7%
- 24小时内移除违规视频的比例从71.9%提高到83.9%
尽管平台在减少有害内容曝光方面做出努力,但在治理虚假信息方面仍面临挑战。独立机构NewsGuard近期研究发现,平台上约20%的搜索结果包含不实信息,涉及“2022年选举”、“mRNA疫苗”等多个关键词。
从违规内容类型分布来看,“未成年人安全”、“非法活动”和“裸露内容”是主要的删除原因,其中涉及未成年人的不雅内容占比最高。这反映出平台在保护青少年用户方面仍需加强措施。
在账户管理方面,虚假账户问题尤为突出。本季度TikTok移除了超过3300万个虚假账户,较上一季度激增62%。这种增长既与平台用户规模扩大有关,也反映出“网红经济”催生的虚假粉丝市场需求正在上升。
为应对这些挑战,TikTok表示正在持续完善系统,加强技术识别能力。平台目前与全球十余家事实核查机构合作,覆盖超过30种语言。近期还推出了新的事实核查计划,上季度已识别33条新型不实信息,移除了5.8万条相关视频。
此外,TikTok近期扩大了评论“点踩”功能的应用范围,该功能主要帮助审核团队识别潜在问题内容,而非单纯表达用户好恶。
总体而言,这份报告既展示了TikTok在内容治理方面的进步,也揭示了随着平台发展而不断涌现的新挑战。在算法推荐机制与地缘政治因素的双重影响下,如何平衡内容生态与安全治理,仍是平台需要长期面对的课题。



