□李佳艺(郑州大学)
近日,网友发现一些普通的主播通过“AI换脸”技术,摇身一变成为杨幂、迪丽热巴等女星进行直播卖货。网站客服称,他们提供的AI实时换脸全套模型价格为3.5万。但有律师称该行为或涉嫌侵权。“AI换脸成明星进行卖货或涉嫌侵权”的词条很快冲上热搜。
事实上,这不是“AI换脸”技术第一次引发争议。今年3月某短视频平台上的特效师把影视剧中男主角的脸换成自己的脸,合成与女明星亲吻的影像,并在网络上出售“AI换脸教程”,也引发了网友的争议。“AI换脸”涉嫌侵犯了什么样的权利?“AI换脸”的底线在何处?“AI换脸”的乱象又该如何破?
以此次事件为例,这类主播贸然使用“明星脸”,只为冒充艺人增加卖点,吸引流量助力卖货,但这背后涉嫌侵犯相关明星艺人的肖像权、名誉权。有律师向媒体表示,主播通过“AI换脸”技术变成“明星脸”带货,是把他人的肖像据为己用,涉嫌侵犯肖像权;如果同时使用了女星的姓名,还会涉嫌侵犯姓名权。如果带货过程中有故意丑化或者损毁的情形,导致被换脸明星的社会评价降低,则涉嫌侵犯明星的名誉权。此外,如果利用AI换脸技术制作明星的色情视频,还可能涉嫌刑事犯罪。
而当“AI换脸”被不法分子用于实施电信诈骗时,则会危害到公众的诸多权益,产生恶劣的社会影响。据报道,近日有不法分子掌握了他人的真实姓名和照片,通过“AI换脸”和拟声技术冒充成他人和受害人打视频,博得受害人的信任,再进行诈骗,10分钟内骗走受害人430万元。可见,“AI换脸”使用的人的肖像,相比于其他个人信息更具敏感性、特殊性。如果放任“AI换脸”技术的滥用,会导致人脸这一“身份识别信息”的混淆与模糊化,继而导致传播秩序混乱,甚至导致电信诈骗防不胜防。因此对“AI换脸”技术进行限制十分有必要。
事实上,我国法律法规已明确规定了“AI换脸”行为应当遵守的边界。我国互联网信息办公室在2022年发布《互联网信息服务深度合成管理规定》,其中明确了:任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,并要求深度合成服务提供者应当建立健全辟谣机制。这为“AI换脸”技术应用划定了“底线”和“红线”。但我国目前仍然缺乏对人工智能的总体立法,以及人工智能伦理的行业规范。因此,想要使“AI换脸”等人工智能技术规范发展,还需完善相关法律体系和实施细则。
笔者认为,想要破解“AI换脸”乱象,还需从技术开发者、网络平台、用户等方面着手。首先,要控制“AI换脸”的技术源头,对“AI换脸”技术开发者建立完善备案手续。因为换脸技术的逼真性,普通人难以分辨,笔者提议,可以要求技术开发者在程序中预留“技术水印”,使用该技术制作而成的视频会被留下该水印。此举便于网络平台识别并标注通过“AI换脸”技术制作而成的视频内容。第二,网络平台需审核用户身份,这样才能把握AI合成视频发布者的身份,以便于落实主体责任。此外,网络平台还需要尽到预先审查义务,通过视频、音频、关键词、图形结构等方式进行事先的过滤、删除,避免“AI换脸”侵权行为的发生。第三,鼓励用户在使用网络平台的过程中对“AI换脸”的侵权行为进行举报。当上述环节形成合力,多管齐下,就能建设起有效的监管体系,对“AI换脸”乱象进行限制。
虽然“AI换脸”在影视制作、广告等场景下具有积极意义,但其引发的乱象和存在的风险需被重视。通过“技术水印”把握技术源头,落实平台责任,提高网民意识,建立完善人工智能的相关规范体系,相信“AI换脸”技术能够在法律法规的轨道内平稳运行。