点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

编者按:近日,多位配音演员公开表态,反对在未获本人知情同意的情况下,擅自采集其声音素材,用于AI训练、音色合成及商业变现等用途。相较于AI换脸,AI仿声侵权的隐蔽性更强,维权难度也更高。配音演员如何维护自身合法权益?相关乱象又该如何治理?对此,光明网网络强国·百人谈专栏推出“被AI‘偷走’的声音”系列观察。
【网络强国·百人谈——“被AI‘偷走’的声音”系列观察④】
随着人工智能技术的快速发展,AI换脸、AI仿声等技术应用日益普及,但由此引发的侵权问题与社会信任危机也备受关注。中国政法大学数据法治研究院院长时建中在接受光明网采访时表示,面对AI仿声侵权等违法行为,可通过技术手段建成完整的溯源链条,将责任落实到具体主体,遏制侵权行为。

中国政法大学数据法治研究院院长 时建中
声音是生物信息,未经许可使用即违法
“我们常说‘听声辨音’,声音就是我们每个人的生物信息。”时建中介绍,如果未经许可使用他人的声音,特别是配音演员在作品中的声音,既涉及声音权,也可能侵犯相关著作权方的合法权益,是一种违法行为。
“在声音侵权链条中,平台是最关键的环节之一。”他表示,平台应对上传内容建立审核标准与审核机制,既要有事中的监测手段,也要在接到举报后启动事后补救措施。
切断利益链,强化溯源与责任约束
时建中认为,侵权背后往往是一条完整的利益链条。治理的关键在于切断这些非法利益链条,加大违法成本,迫使相关主体依法合规地使用声音素材。
“每个人的声音都有独特的生物特征,这些特征可以通过技术手段做标识。”他建议,可以使用技术手段可以在声音采集、训练、合成、上传等各环节加入标识,建成完整的溯源链条,明晰责任归属。“谁未经授权、谁构成侵权,都应该是可以追溯的。一旦责任落实到具体主体,侵权者就会受到约束,侵权行为也会得到有效遏制。”时建中说。
从长远来看,时建中认为,结合现有法律法规相关条款,针对AI换脸、AI仿声等权益保护要进行专门立法,推动数字时代内容生态健康有序发展。
光明网网络安全频道&数字化频道出品
监制:张宁 策划:李政葳 制作:赵鹏超 配音:赵鹏超

“网络强国·百人谈”
更多内容欢迎扫码关注专栏
相关链接:
“被AI‘偷走’的声音”系列观察①从换脸到仿声,这样的“AI侵权”更隐蔽
“被AI‘偷走’的声音”系列观察②仿声易维权难,AI仿声不能任性
“被AI‘偷走’的声音”系列观察③AI仿声技术治理,须从源头向上向善
