
多个直播间同时出现“温峥嵘”的影像,但这些均非她本人出镜。图/央视网
“你是温峥嵘,那我是谁?”近日,演员温峥嵘在社交平台刷到多个冒用自己身份的AI直播间,当她试图质问时,竟被对方直接拉黑。这场荒诞的“身份证明战”背后,折射出AI深度合成技术滥用引发的网络乱象。
据媒体调查,当前有数十个直播间同时使用温峥嵘的AI合成影像进行带货直播。这些内容或通过AI换脸技术生成虚假直播画面,或盗用其过往影视片段进行二次剪辑。“粉丝看到是我的形象就下单,但这些产品我们从未推荐过。”温峥嵘无奈表示,不法分子利用技术手段混淆视听,严重透支其个人公信力。
AI深度合成技术的滥用已形成黑色产业链。犯罪分子仅需将名人音视频素材输入AI生成软件,即可快速创建虚拟形象用于带货、广告甚至诈骗。这种“空手套白狼”的商业模式,不仅侵害名人肖像权,更导致消费者在虚假宣传中遭受财产损失。某电商平台数据显示,2024年因AI换脸引发的消费投诉同比增长320%,涉及金额超12亿元。
我国法律已对AI技术滥用划出红线。《民法典》第1019条明确规定,禁止利用信息技术手段伪造他人肖像;《互联网信息服务深度合成管理规定》要求,提供人脸编辑功能的服务者必须取得被编辑者单独同意。今年9月施行的《人工智能生成合成内容标识办法》更进一步,强制要求AI生成的文字、图片、音视频必须添加显式和隐式标识,相当于为数字内容颁发“身份证”。
从“假靳东”诈骗案到社交媒体AI合影热潮,再到当前温峥嵘遭遇的直播骗局,AI换脸技术滥用已呈现规模化、产业化特征。某安全团队监测发现,某黑产平台数据库包含超过500位名人的深度合成素材,可生成每小时300元的“定制化”虚拟直播服务。
治理AI乱象不能仅靠个人维权。平台方需落实主体责任,建立全链条审核机制。在“AI温峥嵘”事件中,涉事直播间通过虚假身份认证、绕过内容标识要求等手段规避监管,暴露出平台审核系统的重大漏洞。某直播平台内部文件显示,其AI内容识别系统对名人肖像的误判率高达17%,预警机制存在30分钟以上的延迟。
技术治理需多管齐下。平台应建立“AI生成内容”专用举报通道,将侵权处理时效压缩至2小时内;监管部门可推行“白名单”制度,对合规AI服务商颁发认证标识;行业协会应制定AI使用伦理准则,明确技术应用的负面清单。
某互联网法院2024年典型案例显示,在AI换脸侵权诉讼中,原告胜诉率虽达89%,但平均维权周期长达11个月,赔偿金额仅覆盖损失的37%。这凸显出当前治理体系在效率与威慑力上的不足。
监管部门正在构建常态化治理机制。国家网信办“清朗·AI生成内容专项行动”已查处违规账号2.3万个,下架AI合成内容180万条。市场监管总局正在起草《深度合成服务合规指引》,拟对AI带货实行“实名认证+保证金”制度。
“温峥嵘之问”背后,是数字时代个人权益保护的集体焦虑。当AI技术能够瞬间复制一个人的形象、声音甚至行为模式时,传统的法律规制已显滞后。唯有将伦理原则转化为可操作的监管标准,让技术治理跑在风险前面,才能守护每个人的数字尊严与安全。
撰稿 / 李康尼(媒体人)
编辑 / 迟道华
校对 / 张彦君