□殷敏(长沙理工大学)
9月1日起,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局四部门联合发布的《人工智能生成合成内容标识办法》(以下简称《办法》)正式施行。《办法》明确所有AI生成的文字、图片、视频等内容都要“亮明身份”。目前,腾讯、抖音、快手、B站、DeepSeek等平台均对上述《办法》出台细化规则。(9月1日 《环球时报》)
《办法》的出台,是应对AI技术重塑互联网生态的关键一步。以内容标志为抓手,以提醒提示和监督溯源为目标,为每一个作品准备“数字身份证”,推动AI内容的标识从“原则性规定”走向“操作性规范”,主动回应了当下AI技术泛滥的潜在风险,保障了AI伦理规范与技术透明,维护了多元主体的价值平衡。
人工智能浪潮奔涌向前,虚假不实、仿冒侵权、深度伪造等问题集中出现。2025年3月,一则“有顶流明星在澳门输了10亿”的信息被大量传播,强大的AI工具被越来越频繁地用于生产谣言;2023年,全国首例“AI文生图”著作权纠纷案出现,人工智能是否属于著作权法上的“作者”,引发全网争议。因此,如果放任人工智能沿着有违公序良俗、有悖产业规律的方向狂奔,“小风险”逐步叠加,极易变为“大问题”。
值得关注的是,此次《办法》从三个层面跟进落实了AI内容标识,通过前置标识机制,将风险拦截在传播之前。一是要求人工智能生成合成内容带有“显式”标识机制,方便用户辨别,从源头遏制技术滥用;二是若创作者未主动添加标识,平台需采取补漏措施,承担监管责任,提醒公众注意,如“疑似使用了AI生成技术,请谨慎甄别”的标识。三是“立规矩、明边界”,未主动标明AI创作的作品,直接降权限流,严重封号删除。优化全链条管理机制,完善全流程标识体系,成功为“智能向善”打下了坚实基础。
但是,人工智能走深向实,内容治理进入“深水区”。记录信息的来源以及获取,本质是为了合理分配内容主体之间的责任。那么,AI能不能成为创作主体呢?AI内容出现问题如何归责呢?甚至AI能否治理AI呢?就算出台了《办法》,人们也会有关于旧的治理规则是否适用、是否需要升级,以及是否需要制定新的治理规则的讨论。
从这个角度来说,《办法》只是突破了传统事后追责的被动模式,内容治理远不止于此。在AI生成内容快速增长的背景下,只有把握“技术突破期”与“规则空窗期”叠加机遇,通过“硬科技”发展与“软规则”制定双轮驱动,对未来更高级人工智能的潜在风险持续规避和预判,方能铺平轨道,让人工智能沿着健康可持续的方向,跑得更快、更稳,撬动发展的未来。
本文为红辣椒评论原创文章,仅系作者个人观点,不代表红网立场。转载请附原文出处链接和本声明。