强制标识保护公众免遭AI误导

发布时间: 2025年09月09日 文章来源: 人民邮电报

9月1日起,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布的《人工智能生成合成内容标识办法》(以下简称《办法》)正式施行。根据《办法》,所有AI生成的文字、图片、视频等内容都要“亮明身份”,即对相关内容进行标识。同时要求,任何组织和个人不得恶意删除、篡改、伪造、隐匿《办法》规定的生成合成内容标识。

目前,腾讯、抖音、快手、哔哩哔哩、DeepSeek等平台均出台了细化规则。相关平台的落实措施主要体现在三个方面。一是要求内容发布者主动标识AI生成内容,并上线相应辅助标识功能,协助创作者为AI内容添加提示标识,方便用户辨别。二是明确了对于不主动标识AI生成内容的行为的处理办法,如部分平台将对未标记内容采取限流、下架、封号等措施。三是多数平台对未标识的AI生成内容采取了“自动标记”的补漏措施,即对于未标记的AI生成内容,平台识别后将添加提示标识,提醒公众注意。

应该说,相关平台采取的跟进办法具有非常强的针对性和可操作性,如果能够不折不扣地落实,将有效保护网络用户免遭AI生成内容的误导。毕竟,互联网已经成为大部分人工作、生活、娱乐的必备工具,且很多人通过短视频平台读取新闻、获取资讯,通过阅读网络平台上的文字内容获取知识和生活常识。

在网络内容已经成为人们获取资讯和新闻的重要渠道的背景下,网络内容的真实性、客观性尤为重要,直接关系到公众的认知能力和学习能力的提升,并关乎公众是否可能学习到错误知识。若网络平台传播错误内容且相关错误内容得不到及时纠正,就会导致这些错误内容成为“常识”,长久、大范围地误导公众。

随着AI生成技术的普及,使用人工智能技术生成的文本、图片、音频、视频、虚拟场景等已广泛应用于各个领域。但任何技术均具有两面性,AI技术同样是把双刃剑,其在降低信息制作和传播门槛的同时,也极有可能被用于制作虚假消息、低俗内容以及进行人脸、声音替换等。这些乱象,不仅扰乱了网络信息传播秩序,增加了公众获取真实信息的成本,更为侵权、诈骗等违法犯罪行为提供了便利。有报道显示,目前已经有多起利用AI技术合成人脸、合成声音、编造内容用于传播的事件,导致一些明星等公众人物被冒用人脸和声音后用于推销商品或服务,明星等公众人物遭遇侵权的同时,无辜消费者受到欺诈和误导。更有利用AI生成技术盗用人脸和声音用于实施电信网络诈骗的犯罪行为,导致被害人掉入陷阱。

毫不客气地说,对这种足以“以假乱真”的AI技术,如果不采取得力措施来规范,必然会像潘多拉魔盒那样造成难以收拾的后果,并进一步污染网络信息与数据源。强化对AI生成信息进行标识,便是较为科学的治理手段。至少能够让公众知晓所阅读的文字内容、所观看的短视频的来源情况,知晓其是客观的新闻事件还是演绎的剧情,知情权得以保障,不至于掉入误区。当然,网络平台必须充分利用技术手段,尽到必要的审核、筛查义务,对不符合标准的内容予以屏蔽、下架,对于恶意编造虚假信息的行为进行取证,并报送有关部门进行调查处理、处罚。如此方可在促进技术发展、提升公众网络红利的同时,将AI技术的负面影响降到最低。

(编辑:索朗次仁)