网络暴力事件频发,对个人权益和社会秩序造成了严重冲击。2020年3月1日正式实施的《网络信息内容生态治理规定》(以下简称《规定》),作为我国网络空间治理领域的一项重要法规,旨在通过系统性的制度设计,规范网络信息内容生产、传播行为,其出台无疑为治理网络暴力提供了明确的法律依据和有力的监管工具。网络暴力这一复杂的社会顽疾,能否单靠一部《规定》就彻底解决?这需要我们理性审视《规定》的作用、网络服务提供者的责任以及治理的长期性。
《规定》的出台标志着网络暴力治理进入了“有法可依”的新阶段。它明确将“网络暴力”纳入治理范围,禁止制作、复制、发布含有“侮辱或者诽谤他人,侵害他人名誉、隐私和其他合法权益”等内容的信息。《规定》强化了网络信息内容服务平台的主体责任,要求平台建立完善的管理制度,包括建立健全用户注册、账号管理、信息发布审核、跟帖评论管理、版面页面生态管理、实时巡查、应急处置和网络谣言、黑色产业链信息处置等制度。这意味着,平台不能再对显而易见的辱骂、人肉搜索、恶意诽谤等行为采取“鸵鸟政策”或简单的事后删除,而必须建立主动发现、快速响应、有效处置的机制。从“九龙治水”到责任主体明确,从原则性禁止到具体操作规范,《规定》为打击网络暴力构筑了关键的制度防线。
网络服务提供者(平台)的角色至关重要,是《规定》能否落地的“最后一公里”。《规定》将平台定位为“生态治理”的第一责任人。这意味着平台需要:1. 加强审核力度:运用人工与智能审核相结合的方式,对可能涉及网络暴力的内容进行识别和过滤。2. 完善举报机制:建立便捷、高效的举报通道,并及时公开处理结果。3. 实施信用管理:对多次发布违法和不良信息的用户,采取限制功能、关闭账号等惩戒措施。4. 配合执法:依法为监管部门提供技术支持和数据协助。在实践中,头部平台如微博、抖音、知乎等已依据《规定》升级了社区公约,推出了“一键防护”、“评论过滤”、“举报优先处理”等功能,显示出一定的治理成效。海量信息、技术识别难度、商业利益与内容治理的平衡,以及不同平台执行标准的差异,仍然是平台履行责任时面临的现实挑战。
我们必须清醒地认识到,《规定》的出台是“解决”网络暴力的必要条件,但并非充分条件。 网络暴力的根源错综复杂,涉及社会心理、匿名环境、群体极化、媒介素养等多重因素。一部行政法规难以根除所有深层次矛盾。
其一,网络暴力具有隐蔽性和跨平台流动性。施暴者可能利用多个匿名账号、隐晦语言或跨平台联动实施侵害,给监测和追溯带来技术难题。其二,界定标准存在模糊地带。批评与侮辱、舆论监督与恶意诽谤之间的界限有时并不分明,需要结合具体情境判断,这对平台和监管者的判断能力提出了很高要求。其三,治理的长效机制和全民参与尚未完全形成。《规定》侧重于平台责任和内容管控,但网络环境的清朗最终需要网民自律、行业协作、学校教育、心理疏导等多管齐下。提升网民的法治意识和媒介素养,培养理性、友善的网络文化,是比单纯的内容删除和账号封禁更为根本的课题。
《网络信息内容生态治理规定》的出台,为遏制网络暴力提供了强有力的法律武器和清晰的责任框架,特别是通过压实网络服务平台的责任,有望显著提升治理的效率和威慑力。它标志着治理从“被动响应”向“主动防控”的转变。但是,要真正“解决”网络暴力,仅靠《规定》和平台管控是远远不够的。这需要法律持续完善(如与《民法典》、《治安管理处罚法》乃至未来的专项立法衔接),技术不断迭代,平台切实履责,执法严格到位,以及全社会共同培育积极健康的网络生态。因此,《规定》是迈向“解决”的关键一步,但根治网络暴力仍是一场需要法律、技术、教育和社会共治协同推进的持久战。