依法整治AI技术滥用 促进AI应用规范向善
AI“换脸拟声”的不当滥用已成为违法侵权重灾区,严重侵犯消费者的权益,并有愈演愈烈之势。曾有一些喜欢靳东的观众,被AI换脸的“假靳东”所骗,有的甚至要到银行贷款200万元给自己的男朋友“靳东”拍戏。2024年国庆长假期间,曾经出现大量“雷军AI配音”的恶搞视频,迫使雷军本人不得不专门发视频,呼吁大家不要再恶搞。两位受害者的现身说法,让整治AI“换脸拟声”的话题多次冲上微博热搜。为AI“换脸拟声”所苦的名人,远不止靳东、雷军二人:有“假张文宏”深夜直播带货,有“假刘晓庆”分享人生鸡汤,有“假古天乐”“假林峯”代言带有赌博性质的游戏平台。此外,还有“假刘德华”“假梁文锋”“假黄晓明”“假刘亦菲”,等等。
AI技术作为新一轮科技革命和产业变革的重要驱动力量,正以前所未有的速度向经济社会各领域加速渗透,赋能新质生产力发展,然而,AI技术在快速发展的同时,深度伪造、算法歧视、数据滥用、自动决策等技术滥用乱象开始凸显,用户和网民的合法权益受到侵害,正常的信息传播秩序和市场秩序受到挑战。科技发展离不开法治保障。为此,2025年2月21日,中央网信办发布2025年“清朗”系列专项行动通知,将整治AI技术滥用乱象作为近期严厉打击侵权违法行为的重点任务,强化AI技术规范管理和信息内容合规管理,打击借AI技术生成发布虚假信息、实施网络水军行为等,促进AI技术向善,努力营造清朗有序的AI应用网络环境。
AI技术滥用的典型场景
深度伪造技术的法律困境。近年来,深度伪造技术,尤其是“Deepfake”(深度伪造)现象在全球范围内引发社会广泛关注。人脸识别技术、语音识别技术等,都可能被用于非法收集和识别个人信息,侵犯公民隐私权。2023年10月至2024年10月,北京互联网法院共受理113件涉及个人信息保护的案件,其中“AI换脸”人工智能等新类型侵权案件不断涌现。“AI换脸”利用人工智能技术,涉及人脸识别、关键点定位、特征提取等多项技术,将静态图片中的特征与原视频的面部特征、表情等通过算法融合,涉及肖像权及个人信息权益的侵害问题。目前,用“AI换脸”软件冒充名人,骗老年人直播打赏,将他人照片合成淫秽影像,制造假新闻进行传播等,在网上已经成为重灾区。
算法歧视和网络生态面临严峻挑战。目前,算法歧视、“大数据杀熟”、流量造假、电商平台强制“二选一”、网络水军制造虚假活动、诱导沉迷等算法乱象,严重侵害了用户合法权益。网络平台以“商业机密”为由拒绝公开算法参数,导致《个人信息保护法》规定的算法解释权难以落地,这种技术“黑箱”现象使得《电子商务法》禁止的“大数据杀熟”行为面临取证困境。AI算法训练依赖于大量数据,这些数据可能存在偏见和歧视,导致算法输出结果不公平。AI在处理数据时可能继承和放大现有的社会偏见,导致算法歧视问题。网络上的非法网络攻击、电脑病毒无孔不入,违法、不良信息屡禁不绝,网络谣言、网络诈骗、网络色情信息等不文明现象较严重。
自动决策系统的责任真空。自动驾驶车辆事故中的责任划分难题,凸显出现行《道路交通安全法》在AI决策系统责任认定上的制度空白。特斯拉“刹车门”事件中暴露的算法缺陷证明,单纯适用产品责任原则难以覆盖算法设计缺陷导致的系统性风险。江苏某公司利用AI换脸技术伪造企业家商业演讲视频案件,暴露出生物特征数据非法采集、合成内容传播监测等技术法律复合型难题。《民法典》虽明确禁止利用信息技术伪造肖像,但面对实时动态生成的深度伪造内容,存在违法主体认定困难、损害后果量化复杂等司法障碍。
以科技向善为原则进行规范和引导
当前,AI全球治理正处于快速发展阶段,推动AI技术创新发展,不仅涉及技术和法律层面,更涉及科技伦理和社会道德层面,亟待建立起涵盖法律规范、行政监管、技术伦理、行业自治的AI多维治理体系,以科技向善为原则进行规范和引导。
构建风险分级管控体系。作为AI技术创新的数字基础设施,电信运营商和互联网公司应当按照中央网信办发布的2025年“清朗”系列专项行动要求,认真研判法律法规、监管规定、行业准则、国际标准对AI技术发展和应用的规制,重点建立和完善AI技术规范与应用的合规体系,对企业的相关制度流程进行“立改废”,修订相关制度流程。《网络安全法》确立了数据分类管理、关键信息基础设施保护等基本原则,通过规定的“合法、正当、必要”原则,为AI数据采集划定了法律红线。《数据安全法》构建了数据分级分类保护制度,将数据分为一般数据、重要数据、核心数据,不同级别的数据采取不同的保护措施,明确在数据采集、存储、处理、流通等环节的合规要求,细化个人信息保护与企业数据安全责任边界,强化跨境数据流动监管,确保数据使用透明可控。直接针对AI训练数据集的合规使用进行约束,如生成式AI服务提供者应当依法开展预训练、优化训练等训练数据活动,使用具有合法来源的数据和模型。
创新法律责任分配机制。2023年实施的《生成式人工智能服务管理暂行办法》,在全球范围内率先建立生成式AI服务备案制度,提出了“内容安全边界清单”机制,要求开发者内置违法信息过滤模块。通过立法明确连带责任扩展适用,在《消费者权益保护法》中增设“算法服务提供者过错推定责任”条款;在新修订的《消费者权益保护法实施条例》中,对“大数据杀熟、自动续费”等进行了规范。平台通过算法系统提供精准推送和个性化服务成为主流,算法推荐服务的底层逻辑中蕴含经营者的价值取向,在运营过程中也存在人工干预算法的情形,故难以通过技术中立性免责。由于算法对内容的强大计算责任,算法推荐服务者对内容负有信息管理责任,应当承担更高程度的注意义务,如网络服务提供商承担严格的“通知—删除”义务,注意采取有效措施保护相关权利人的合法权利,将依法合规审查纳入算法运行的全流程。
深度伪造的法律应对策略
AI深度伪造的直接制作者无疑是首要责任人,应当对其违法行为承担法律责任。如其行为侵犯他人民事权益,还需承担停止侵害、消除影响、赔礼道歉、赔偿损失等民事责任。AI深度伪造信息在网络平台上传播的,平台经营者未尽到合理的审核、监管义务。明知是深度伪造信息仍进行转发、传播的用户,根据其主观状态和具体行为,可能构成共同侵权,承担相应法律责任。一是强化政府监管。面对AI深度伪造技术的发展,政府部门和司法机构应加大对AI深度伪造黑产的打击力度,依法严惩制作、传播深度伪造信息的行为。重点督促网络平台强化自我监管,提升技术过滤能力,及时发现并删除相关违法内容。及时跟进创新法规制度,明确深度伪造行为的定性、量刑标准,细化相关罪名的适用情形,填补现有法律空白。二是提升公众法律意识。大力开展普法宣传和典型案例教育活动,提高公众对深度伪造危害的认识,引导公众自觉抵制深度伪造信息,增强自我保护能力。倡导尊重他人隐私、肖像权的社会风尚,从源头遏制AI深度伪造犯罪的发生。三是研发反深度伪造技术。AI深度伪造技术的滥用,不仅挑战了现行法律制度,也对社会公序良俗构成冲击。鼓励科研机构和企业研发反深度伪造技术,提升识别、屏蔽AI深度伪造信息能力,构建有效的技术防线。只有形成法律、技术、教育等多维度合力,才能有效遏制AI深度伪造犯罪的滋生蔓延,守护公众的合法权益。
AI伦理实际上是人的伦理,既包括设计者,也包括使用者。人的自主性丧失,是人主动放弃自己的自主性,放弃自身职业伦理,将需要承担的伦理和法律责任工作完全交给AI,对自己使用技术工具的行为不负责。科技向善强调科技发展应当遵循伦理道德准则,在追求技术进步的同时,始终坚持正确的价值取向和道德底线。在人工智能技术研发和应用过程中,可能面临各种复杂的伦理困境,例如,隐私保护、责任归属和社会不公平现象等。当人们积极使用DeepSeek等新工具带来便利时,需要考虑“机器欺骗人”的臆想问题,应当坚守人类的伦理规范,对自己使用工具的行为及其后果负责。DeepSeek成为全球具有影响力的开源大模型引起业界高度关注,亟待建立监管新机制,需要对开源模型应用设置合规义务与责任豁免。国家新一代人工智能治理专委会发布的《新一代人工智能伦理规范》,创造性提出“敏捷治理”理念,通过建立算法伦理影响评估制度,在生物特征识别领域推动形成“最小必要采集”行业共识。广东深圳颁布的《深圳经济特区人工智能产业促进条例》,创新性设立“算法备案审查委员会”,对公共领域算法实施准入前伦理评估。2025年2月10日,中国信息通信研究院联合40余家企业制定的《生成式人工智能个人信息保护技术要求》系列标准正式发布。该系列标准围绕生成式AI产品和服务的研发全流程,从隐私声明告知、训练数据构建、模型规制控制、二次开发管理、输出阶段管理、个人权利响应、供应链管理、服务保障能力等多维度,建立健全个人信息和用户权益保护评估体系,助力AI内容自动生成技术规范应用与创新发展。(作者:薛兴华)
(编辑:旦增尼玛)