读创
读创
AI换脸乱象未平,AI盗声又成新隐患——克隆声音相似度可达90%以上!叶清、季冠霖等配音演员3月集体维权,演员檀健次工作室也于近日发声明抵制未经授权的AI声音、肖像生成内容。当AI偷走我们的声音,侵权如何认定?普通人该如何维权?记者采访法律专业人士获悉,我国法律明确保护自然人声音权益,未经许可用AI克隆、使用他人声音均属侵权,全链条固证、追责可有效守护数字人格权。
声音也有“人格权”,普通人同样受法律保护
不少人误以为只有明星、配音演员的声音才受保护,实则不然。随着人工智能技术的发展,声音作为一种人格利益受到重视。深圳大学民法制度与权利保障研究所副所长魏启证解析,《中华人民共和国民法典》第1023条明确规定,自然人声音的保护参照适用肖像权保护的有关规定。同时,声音作为个人敏感信息受个人信息保护法规制,配音演员的声音还受著作权法保护。
从大量的短剧、广告等视频中可以看到,AI声音侵权已形成从素材采集到内容生成直至流量变现的完整灰色产业链。广东君龙律师事务所知识产权律师侯晓宇介绍,中广联演员委员会已明确,即便标注“非商用”“个人二创”,未经授权使用AI仿声也不能免责。
魏启证表示,声音保护不看名气,普通人声音只要能被家人、朋友、同事等特定群体识别,即具备可识别性。即便AI对音色做微调处理,只要仍能关联到特定自然人,就构成侵权。广东安证计算机司法鉴定所司法鉴定人黄万巧也表示,声音可识别性不要求100%相同,达到高度混淆程度即可认定。
维权难在溯源举证,司法鉴定、公证成核心利器
“侵权内容碎片化传播、发布者匿名难溯源;平台以‘技术中立’为由推诿,拒绝提供训练数据与用户信息;声音无形,相似度认定不直观、举证难。”魏启证认为,这是声音维权面临的三大难点。
黄万巧介绍,声音维权可以通过司法鉴定中的录音真实性和语音同一性鉴定进行。录音同一性鉴定可判断音频是否为AI合成、是否与权利人声音同一。被侵权人可根据鉴定机构出具的鉴定意见,通过向平台要求下架侵权内容、向法院起诉等司法手段保护自身合法权利。据悉,全国首例AI生成声音人格权侵权案中,法院正是依据声纹比对等证据,判令侵权方赔偿25万元并赔礼道歉。
面对AI盗声,侯晓宇律师支招“维权三步走”:第一步是24小时内快速固证,通过公证处网络证据保全、区块链存证、录屏哈希值验证固定侵权链接等信息。第二步是委托具备资质的司法声纹鉴定机构,对AI生成内容与权利人真实声音进行声纹比对。第三步是追溯生成来源,向平台发送律师函、证据保全申请,要求提供内容生成日志、用户信息。若平台拒不配合,可申请法院证据保全令。
“配音演员可预先对标志性音色进行数字化存证,或在音频中嵌入隐形数字水印,作为日后维权的底层证据。”侯律师提醒。
平台不可“甩锅”,普通人防范有“锦囊”
防范AI盗声,平台责任重大。国家网信办等七部门发布的《生成式人工智能服务管理暂行办法》明确要求使用服务提供者用于训练模型的声音数据必须具备合法来源。AI工具平台与视频平台需履行事前审核素材来源、事中强制标注 AI 生成、事后及时下架侵权内容的义务,未尽义务需承担连带责任。
侯晓宇律师认为,平台不能只做“管道”。当AI工具被用于批量侵权时,平台已不是中性技术提供者,而是侵权的基础设施。连带责任会随平台对侵权“明知”程度的加深而不断加重。中广联演员委员会声明已明确:对未尽审核义务的平台,将依法追究民事、行政乃至刑事责任。
若自己的声音被人用AI盗走诈骗亲友怎么办?不少人对此颇为担忧。魏启证提醒,普通人日常防范可牢记三点:不随意在陌生平台发布超30秒连续语音,谨慎开启APP录音权限;涉及转账、借款,务必回拨原号码或用约定暗语双重核实;发现侵权立即存证、向平台投诉,涉诈骗立即报警并保留证据。
黄万巧所在的安证司法鉴定所在20多年的工作中处理过几万宗案件的司法鉴定工作,其中有不少案件涉及录音的真伪及语音内容是否为某人的鉴定工作,比如刑事案件的诈骗电话录音,民事案件中的遗嘱录音、借贷录音、劳动纠纷等。“大家遇到相关情况一定要做好原始内容的保存,通过合法的取证方法对证据内容进行保全工作。可以用全程录屏、下载等方式,记得要将侵权的发布平台、账号、标题、发布时间、播放数量等情况进行证据保全。”他提醒。
技术创新不可逾越人格权边界。从民法典确权到专项法规监管,再到刑事打击,法律已为AI侵权划定红线,守护每个人的数字人格尊严。
来源:读特APP(深圳特区报&读特记者 张玮玮)
Copyright©2020 Sxzm. All rights reserved.