王琦
国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》(以下简称《标识办法》),9月1日起正式施行。《标识办法》明确,所有AI生成的文字、图片、视频等内容都要“亮明身份”。
在数字化浪潮汹涌的今天,人工智能深刻渗透进我们日常生活的方方面面。AI技术的每一次跃进,都在重新定义着人类与技术的互动边界,一系列伦理、法律和社会问题也随之浮现。《标识办法》的发布,为AI生成内容的透明化管理树立了新标杆。
该办法的核心,在于要求所有AI生成的文字、图片、视频等内容必须“亮明身份”,这一举措直击当前AI应用中的一大痛点——真实性与可信度的缺失。伴随AI技术的滥用,尤其是深度伪造技术的成熟,制造逼真却完全虚构的内容变得轻而易举,这对个人隐私、社会稳定乃至国家安全构成了严峻挑战。为此,强制AI生成内容添加标识,不仅是技术伦理的体现,更是维护信息生态健康、保障公众知情权的必要之举。
我国已有近500款大模型完成备案,生成式AI用户规模突破2.3亿大关。这一数据,体现了AI技术普及的迅猛态势,也传递出对有效监管的迫切需求。《标识办法》通过采用显式标识和隐式标识的双重机制,构建起一道从内容生成到传播的全链条防线。平台在内容上架前的审核环节,不仅要检查是否已添加标识,还需对未标识或疑似生成的内容添加风险提示。这一设计,可有效拦截虚假信息,减少其在网络空间扩散风险。
当然,任何政策的实施都不可能一蹴而就,AI生成内容标识制度的落地同样面临诸多挑战,如技术实现的复杂性、跨平台标识统一难、须与国际标准协调等。但正如《标识办法》出台所彰显的,面对AI技术的双刃剑效应,主动作为、积极应对,通过制度创新引导技术向善,是我们共同的责任和使命。
(作者单位:河南省漯河市郾城区疾控中心)