以良法善治防范深度伪造风险
我们要将科技安全摆在更加重要位置,进一步凝聚社会共识、完善治理体系,在总体国家安全观的指引下,统筹发展和安全
随着“4·15”全民国家安全教育日的临近,维护国家安全再次成为全社会关注的焦点。在技术迭代日新月异的今天,生成式人工智能以前所未有的速度重塑着我们的生产生活方式。然而,以“AI换脸”“语音克隆”等为代表的深度伪造技术,正可能成为金融诈骗、舆论操纵、间谍窃密等活动的“隐形武器”。近期,国家安全部发布安全提示,呼吁公众谨防深度伪造的“魔改”陷阱。
当前,生成式人工智能在视频制作、内容创作等领域展现出巨大潜力,正成为数字时代的内容生产利器。但技术一旦被恶意使用,就可能沦为侵害公民权益、扰乱社会秩序甚至危害国家安全的工具。比如,境外间谍情报机关、各种敌对势力可能利用深度伪造技术,捏造虚假言论、伪造公务人员不当视频、炮制虚假政策画面,以此制造社会恐慌、抹黑国家形象;不法分子可能利用深度伪造克隆亲友、客服等声音面容,实施冒充转账、虚假投资、仿冒官方渠道诈骗等非法活动。更值得警惕的是,还有人可能利用深度伪造人脸、声纹等生物特征,突破身份认证、权限校验等核心数据防护机制,盗取账号、入侵后台,使得敏感数据批量泄露。
面对深度伪造带来的多重风险,如何避免“看得见效果”的技术演变为“看不见风险”的新变量,已成为深入审视和平衡科技与安全关系的重要课题。科技本质上是力量的杠杆,具有显著的“双刃剑”效应:一方面,人工智能等前沿科技极大扩展了国家安全的“感知半径”和“响应速度”,使情报预警更早、风险研判更准、资源配置更优,进而重塑传统国家安全体系的运转逻辑;另一方面,当技术进化到足以重塑感官认知、消弭视听边界时,其也会成为一种新的风险载体,可能侵蚀社会信任基础,甚至对国家安全构成直接威胁。
由此来看,安全不再意味着能够绝对的“零风险”,而是需要构建一种以科技制衡科技、用“魔法打败魔法”的韧性体系。唯有将安全逻辑内嵌于算法研发和数据训练之中,让“技术向善”从伦理倡议转化为法治刚性,以良法善治打造防范深度伪造的“安全阀”,我们才能在畅享科技红利的同时,牢牢守住国家安全的数字命门。
目前,我国的制度构建已稳步展开。民法典、刑法、个人信息保护法、数据安全法、网络安全法等法律法规,为防范深度伪造的安全风险,织密了一张法律交叉适用的防护网。例如,利用深度伪造技术恶意篡改他人肖像、制作或传播虚假内容的行为,既可能侵犯他人人格权进而承担相应的民事责任,也可能因扰乱公共秩序被处以行政处罚,情节严重构成犯罪的,要承担刑事责任。涉及国家安全的,还可能因触犯反间谍法、国家安全法等,面临更加严厉的法律制裁。
作为目前针对深度伪造技术治理的重要部门规章,《互联网信息服务深度合成管理规定》明确规定任何组织和个人不得利用深度合成服务,制作、复制、发布、传播法律、行政法规禁止的信息,不得从事危害国家安全和利益等活动。而《生成式人工智能服务管理暂行办法》则进一步明确生成式AI服务应坚持社会主义核心价值观,不得生成危害国家安全等违法有害信息,要求服务提供者履行训练数据合法来源审查、安全评估、算法备案、内容标识等义务,从源头规范深度伪造技术的应用边界。近日印发的《人工智能科技伦理审查与服务办法(试行)》,强化以技术手段防范科技伦理风险,为推动人工智能健康发展提供了重要制度支撑。
守护国家安全的数字命门是一项系统工程,在完善法治“硬约束”的同时,还需要积极开展宣传引导、能力建设、激励约束等配套“软举措”,筑牢防范深度伪造滥用的多方协同防线。例如,有关部门可以加强情报研判和技术监测,通过发布典型案例和安全提示,持续提升公众辨识能力,震慑利用AI技术实施的渗透、窃密与煽动行为;生成式AI服务的提供者和平台企业在依法依规建立完善算法安全管理体系的同时,应进一步加强技术反制能力,研发深度伪造识别技术,构建“用AI识别AI”的安全防线,降低虚假内容传播速度和影响范围;社会公众也应主动提升“技术识读”能力,树立安全意识,对来源不明、内容极端、情绪强烈的视频音频保持高度警惕,不轻信、不盲从、不转发,做好个人信息保护。
国家安全是实现国家利益最根本的保障,与每个人息息相关。面对新一代人工智能技术快速演进的新形势,我们要将科技安全摆在更加重要位置,进一步凝聚社会共识、完善治理体系,在总体国家安全观的指引下,统筹发展和安全,通过政府监管、企业履责、公众参与的多维合力,让法治为人工智能立界,让治理为国家安全添力,在推动生成式人工智能高质量发展的同时,把深度伪造风险牢牢关进法治和技术的“笼子”里,为数字时代的国家安全筑牢一道坚固可靠的智能防线。
(作者系外交学院国际法系教授、国际关系学院知识产权与科技安全研究中心研究员)
(编辑:旦增尼玛)






