
▲多个直播间同时出现“温峥嵘”的影像,但这些均非她本人出镜。图/央视网
“你是温峥嵘,那我是谁?”近日,演员温峥嵘在刷短视频时意外发现,多个直播间竟同时出现“自己”的影像。当她试图通过弹幕质问时,账号却立即将她拉黑。面对这一荒诞场景,温峥嵘无奈表示:“现在连证明‘我是我’都成了难题。”
据央视网调查,这些直播间中的“温峥嵘”实为AI技术合成的虚拟形象,或通过盗录、剪辑其过往影视片段制成。更令人震惊的是,这些账号利用名人效应推销商品,而温峥嵘本人明确表示:“相关产品从未推荐过,更未参与销售。”这种通过技术手段混淆视听的行径,正在严重透支公众对名人的信任。
近年来,AI深度合成技术催生出一条灰色产业链。不法分子仅需将名人音视频“投喂”给AI软件,即可生成足以乱真的虚拟形象。从“假靳东”诈骗案到社交平台“与明星合影”热潮,再到如今温峥嵘遭遇的直播困境,技术滥用已形成完整闭环:无需授权、零成本投入,仅凭一张窃取的面部数据,就能构建起骗取消费者信任的“数字人设”。
这种行为不仅违反商业伦理,更触碰法律红线。我国《民法典》第1019条明确规定,禁止利用信息技术手段伪造他人肖像;《互联网信息服务深度合成管理规定》亦划出“红线”:提供人脸编辑功能的服务者,必须取得被编辑者单独同意。然而,在利益驱动下,违法者仍不断试探技术伦理的边界。
从“AI温峥嵘”事件暴露的问题来看,平台监管存在多重漏洞:假冒账号如何通过身份审核?直播过程中是否添加AI生成标识?系统为何未能识别“高仿”内容并触发预警?这些疑问直指平台内容审核机制的失职。
尽管今年9月施行的《人工智能生成合成内容标识办法》要求强制添加显式和隐式标识,但实际执行中仍存在“软约束”现象。某直播平台内部人士透露,部分账号通过购买真实用户信息绕过审核,而AI生成内容的动态识别技术尚未完全成熟。这种技术与管理双重短板,为不法分子提供了可乘之机。
破解AI伪造困局,需构建多层次治理体系。平台方应落实主体责任,通过以下措施强化监管:
监管部门则需形成常态化执法机制,对电商平台、直播机构开展专项整治。2023年网信办“清朗”行动中,已查处AI伪造账号12.7万个,但相较于技术迭代速度,治理力度仍需加强。
温峥嵘的遭遇绝非个案。当AI技术能够轻易复制人类面容与声音,当“数字分身”开始替代真实个体参与社会活动,我们不得不思考:技术进步的边界在哪里?人的主体性如何保障?
这要求法律从原则性条款走向具体场景规制,要求平台建立“技术向善”的审核标准,更要求每个使用者坚守道德底线。正如中国社科院专家所言:“AI应是拓展人类能力的工具,而非消解真实性的武器。”
唯有让技术规制落地生根,让平台监管长出“牙齿”,让法律利剑高悬头顶,才能避免更多“温峥嵘式无奈”上演,真正守护数字时代的尊严与安全。
撰稿 / 李康尼(媒体人)
编辑 / 迟道华
校对 / 张彦君