滥用公众人物声音 AI技术玩过界引发质疑

从“一眼假”到“真假难辨”再到“深度伪造”,生成一条音频只需20秒。滥用公众人物声音恶搞,AI技术应用“玩过界”被质疑。

近日,一些短视频平台出现了大量某知名企业家吐槽的视频。在这些视频中,该企业家对堵车、调休、游戏等热门话题进行了调侃和锐评,甚至夹杂不雅词汇,引发网友热议。事实上,这些吐槽视频并非该企业家本人发声,而是由网友利用AI软件采集其原音生成的配音,逼真的效果让不少人信以为真。

AI的发展为生活带来便利的同时,也引发了质疑。以AI语音合成技术为例,只需要打开软件、动动手指,一条以假乱真的配音视频就能新鲜出炉。然而,有的视频越过了开玩笑的边界,“偷走”他人声音进行恶搞、造谣,带来了恶劣的社会影响。

记者在社交软件上检索发现,不少用户发布了AI配音的相关视频生成教程。其中大部分配音都源于某拟真语音大模型应用。在该应用网站上,创作者上传任意人物的一段音频作为训练素材,随后AI通过学习可克隆出一个声音角色。其他用户只需输入文本,便可以使用该声音生成内容。记者按照指引添加了上述知名企业家的声音角色,输入一段100字的文本后点击“开始生成”,约20秒就生成了一条与该企业家声音相似度极高的AI音频。截至目前,该声音角色已被使用79.9万次,生成字符数达4455.5万个。

被“偷走”声音的公众人物还有不少。今年9月底,一段据称是某直播平台老板卢某某的酒后录音在网络上流传,整体呈现出卢某某对于消费者的傲慢态度,以及对相关人士的不尊重表达,为该平台招致不小的争议。后经警方调查,音频内容不实,系大模型伪造而成。一位业内人士表示,通过模仿音频样本的语调、语速、情感、口音、发声方式等特征,AI技术已经能够高度还原音频样本的声音,达到人耳和其他鉴定方式难以区分的程度。

中国社会科学院大学法学院副教授刘晓春表示,在未经过授权、未进行标注的情况下,用他人声音制作AI语音产品,尤其是“借用”公众人物的声音,很容易引起误解,这不仅会侵害个人信息安全,还可能扰乱网络空间生态秩序。

当前,不少网友在合成他人的AI音频时,仅抱着娱乐心态,并没有意识到背后隐藏的法律风险。北京盈善律师事务所律师张清鑫分析称,自然人的声音具有唯一性、独特性,是自然人人格的重要组成部分,声音权益是人格权的一种。制作并上传他人AI音频的行为,无论是出于商业目的还是娱乐目的,都已构成对其人格权的侵犯。如果配音内容违法或违反公序良俗,可能侵犯他人的名誉权。

今年4月,北京互联网法院一审开庭宣判了全国首例AI生成声音人格权侵权案。该案中,配音师因认为自身作品被短视频平台利用AI生成语音产品,严重侵犯了自己的声音权益,将短视频平台及制作方等5家公司诉至法院,最终原告获赔经济损失25万元。法院认为,AI声音与原告声音具有高度一致性,能够引起一般人产生与原告有关的思想或感情活动,能够将该声音联系到原告本人。在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。

清华大学新闻与传播学院新媒体研究中心发布的研究报告显示,近一年来,经济与企业类AI谣言量增长显著。受访专家表示,法律法规和治理手段要跟上科技发展的步伐,对AI技术的应用进行明确约束,引导科技向善。张清鑫认为,AI语音应用工具提供方要把好第一道关,强化对源头素材的把控和对生成内容的监管,完善运营规则,并在出现问题时积极配合有关部门追溯违法音频的生成源头。

国家网信办发布的《人工智能生成合成内容标识办法(征求意见稿)》提出,提供网络信息内容传播平台服务的服务提供者应当采取措施规范生成合成内容传播活动。包括提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容等。刘晓春建议,除了提示用户进行标识以外,平台也应对AI生成内容建立甄别和追踪机制。如果发现涉嫌伪造的内容或者接到相关投诉,应当要求内容发布者及时对伪造内容进行标识,在不标识的情况之下,可以根据平台规则删除内容,造成严重后果的可以进行禁言、封号等处理。