《标识办法》昨起施行:所有AI生成内容须“亮明身份”,专家解
2025-09-02 10:23:35  腾讯   [查看原文]

9月1日起,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》(以下简称《标识办法》)正式施行,《标识办法》明确所有AI生成的文字、图片、视频等内容都要“亮明身份”。

图/中国网信网

《标识办法》的落地,可视为国家层面推动AI行业规范、健康发展的关键举措。随着生成式人工智能的普及,AI生成内容正以前所未有的速度涌入平台内容池,几分钟就能生成文字、语音、视频的强大生产力,既带来了令人耳目一新的内容产品,也让造谣、仿冒侵权等违法行为有了新的“温床”。

某平台账号中的AI生成内容

记者查询发现,9月1日前后,抖音、腾讯、B站等内容平台及DeepSeek等AI服务提供商均针对《标识办法》出台了细化规则。

AI技术滥用,搅浑内容生态

近年来,随着生成式人工智能技术的爆发式增长,AI技术逐渐“平民化”,有的只需要付出一笔会员费,再加以简单摸索和学习,每个人都可以“零门槛”地使用各式AI模型,生产出文字、语音、视频等内容产品。

羊城晚报记者在多个内容平台查询发现,如今已有不少专注于AI内容生产的账号,部分账号的粉丝可达数十万。当前,这些账号所处的“赛道”可谓五花八门,有些专门发布AI生成的切水果助眠视频;有些发布一些AI生成的可爱的儿童形象,吸引爷爷奶奶辈的中老年用户;更“高级”的玩法,则是用AI生成带有简单剧情的小短剧,不少追剧用户还留言“催更”。

AI生成内容凭借极低廉的成本,高效的生成效率,以及几近乱真的产品形态,已经成为了当前平台内容生态的重要部分。但与此同时,AI技术滥用带来的风险同样不可忽视。上述AI生成内容的优点,如被不法分子利用,产生的危害更加巨大,我们正逐渐步入“眼见不一定为实”的尴尬境地。

如奥运冠军全红婵的哥哥公开发声,指责大量账号使用AI克隆的全红婵声音吸引用户,再带货土鸡蛋、蜂蜜等商品,“全平台一大堆这种切片,我告都告不过来。”微信平台今年1月的公告显示,一个月内,就处置了1.2万条利用AI仿冒名人进行违规拼接、不当营销和恶意博取流量的内容,关闭了3281个相关账号。

由于技术限制,当前大量的AI生成的语音、视频,人们还可分辨,相比之下,AI生成的文字谣言更加难以辨识。8月28日,公安部公布了8起网络谣言典型案例,其中便包括利用AI捏造的谣言。2024年6月,公安机关查处了江西南昌某MCN机构,该机构竟构建了一条全自动谣言“生产线”,最高峰时单日可生成4000至7000篇谣言,通过流量变现与舆论操控每日非法牟利超万元,对公共信息秩序造成严重破坏。

伴随着种种乱象的出现,监管能不能适时跟上,成为规范AI行业健康发展的关键点。

新规落地,各方积极响应

9月1日起,国家网信办等四部门联合发布的《标识办法》正式施行,明确所有AI生成的文字、图片、视频等内容都要“亮明身份”。毫无疑问,这是国家层面对AI生成内容监管的关键一步。

中国政法大学数据法治研究院教授、联合国高级别人工智能咨询机构中方专家张凌寒告诉羊城晚报记者,《标识办法》实现了理念到成型制度的转向,首次在国家层面系统构建了人工智能生成内容的标识框架,标志着我国在制度层面率先完成从“0”到“1”的突破,对生成式人工智能的治理,正式从原则性规范迈向精细化规制新阶段。

知名经济学者、工信部信息通信经济专家委员会委员盘和林则认为,《标识办法》的施行恰逢其时,对AI生成内容的规范具有很好的促进作用。同时,其也为正常的AI内容合成开辟了合规通道。

羊城晚报记者查询发现,在9月1日前后,抖音、腾讯、B站等内容平台及DeepSeek等AI服务提供商均针对《标识办法》出台了细化规则。

如9月1日,抖音发布《关于升级AI内容标识功能的公告》,进一步规范平台上的AI内容创作与传播。《公告》显示,抖音已上线两项核心功能:一是AI内容标识功能,协助创作者为AI内容添加提示标识,方便用户辨别;二是AI内容元数据标识读写功能,可识别并写入AI内容的元数据信息,为内容溯源提供技术支撑。

若创作者未主动添加标识,抖音将辅助添加标识说明。一方面,平台会运用技术手段检测疑似使用AIGC技术生成的内容,并为其添加“疑似使用了AI生成技术,请谨慎甄别”的标识;另一方面,根据相关规定,AIGC技术服务提供者在生成AI内容时,需在元数据中添加隐式标识。当创作者在抖音发布此类内容时,如抖音核验出内容元数据中的隐式标识信息,将在作品页面添加“作品含AI生成内容”的标识。

DeepSeek则称,已在平台内对AI生成合成内容添加标识,并明确提醒用户相关内容由AI生成。用户不得恶意删除、篡改、伪造、隐匿此类生成内容标识,不得利用AI制作、传播虚假信息、侵权信息以及从事任何违法违规活动。

同时,DeepSeek已发布《模型原理与训练方法说明》,对模型的基本原理、训练数据及内容生成机制予以说明,以帮助用户更全面地理解AI技术、合理使用DeepSeek相关服务,切实保障用户的知情权和控制权,防范因误用或不当使用可能带来的各类风险。

截至目前,我国已有490余款大模型在国家网信办完成备案,240余款大模型在省级网信办完成登记,我国生成式人工智能产品的用户规模已达2.3亿人。《标识办法》明确,人工智能生成合成内容是指利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息。人工智能生成合成内容标识包括显式标识和隐式标识。平台在服务提供者的内容上架或上线时要进行审核,核验生成合成内容标识,对未标识或疑似生成内容要添加风险提示,从而在传播端阻断虚假信息扩散。

专家解读:

《标识办法》既带来合规压力

也蕴含发展机遇

张凌寒认为,对AI服务提供者与信息传播平台而言,《标识办法》的落地既带来了合规压力,也蕴含着发展机遇。

压力体现在其需承担明确的标识、审核与管理责任,这无疑增加了技术与运营的合规成本。然而,机遇同样显著——首先,统一、清晰的标识框架避免了因规则模糊导致的重复投入与适配障碍,大幅提升了全行业的合规效率;其次,通过划定明确的规范底线,推动了产业走向规范竞争的新业态,有助于市场秩序的维持和企业的良性发展;最后,制度为企业留出了适应和调整的空间,文本符号标识等低成本标识方法,体现出制度设计中必要的梯度性与阶段性,旨在保护创新活力,促进产业的长期健康发展。

《标识办法》中的另一亮点,则是规定了“显隐”两种标识方式。张凌寒指出,显式标识与隐式标识的双重要求,是出于构建“用户可感知、机器可识别”的双层信任机制的考量,以应对不同层面的治理需求。

在传播链条中,显式标识(如文字、声音提示)让用户一眼可知“哪些是生成的”,旨在保障用户的知情权,起到前端告知与提醒的作用。而隐式标识(如元数据嵌入)则作用于技术与监管后端,它将生成来源、模型类型、创作时间等结构化信息嵌入文件底层记录,为事后追溯、责任认定与监管执法提供可靠的技术依据。

张凌寒表示,内容标识制度的完善是一项跨部门、多主体、长周期的系统工程,现阶段必须“先立后破、分步实施”,其监管方式是在动态迭代中持续完善的。现有手段并非终点,未来的监管将依赖于技术与制度的协同演进。

一方面,轻量化数字水印、频域嵌入、分布式身份标识等抗攻击性强、跨平台兼容的技术手段仍有待引进,标识维度和识别精度有待进一步拓展;另一方面,监管链条本身也在不断完善,通过沙盒试点等方式形成反馈机制,动态更新技术指南,最终目标是实现“未标识、不推送”的治理闭环,这会是一个逐步实现的过程。

来源 | 羊城晚报、羊城派、金羊网

文字 | 王隽杰

编辑 | 谢杨柳

校对 | 谢志忠

审签 | 周乐瑞

【原创】

更 | 多 | 新 | 闻

本栏目中的所有页面均系自动生成,自动分类排列,采用联索网络信息采集、网页信息提取、语义计算等智能搜索技术。内容源于公开的媒体报道,包括但不限于新闻网站、电子报刊、行业门户、客户网站等。使用本栏目前必读