3月13日,国内多位配音演员发布声明函,对利用AI技术进行的侵权行为进行维权声明。此次行业头部公司的配音演员集体发声,或将成为推动现状改变的重要节点。声音被AI侵权后,平台应承担何种法律责任?上海理振律师事务所主任、律师李振武,从法律视角对配音演员声音权的保护路径进行解读。
据《互联网信息服务深度合成管理规定》和2025年9月施行的《人工智能生成合成内容标识办法》,平台对AI生成内容负有一些法定义务,但是相比明星换脸,声音更难以辨识,声音相似的人也有不少,这会对平台产生更难审核的问题吗?这可以作为抗辩理由吗?
李振武介绍,相比视觉换脸,对于声音的相似性判断更具主观性,且存在自然音色相近的情况,这给平台的事前主动审查带来了巨大技术挑战,但不能作为完全的抗辩理由。
审核难度不影响平台在接到权利人明确、具体的侵权通知(如提供原声音样本、侵权内容链接、对比说明)后的处理义务。此时平台已“明知”或“应知”侵权可能,必须采取行动。
司法实践中,判断平台是否尽到注意义务时,会考虑现有技术水平。如果已有相对成熟的声纹识别、AI内容检测技术,且成本合理,平台有义务引入并运用这些技术进行一定程度的过滤和拦截。如果某个AI声音作品已被广泛传播并明确指向某位知名配音演员(如标题直接使用其姓名),其侵权事实像“红旗”一样明显(源于“红旗原则”,是指当网络服务提供者明知或应知其平台上存在侵权内容,且该侵权内容如同“红旗”般显而易见),平台不能以审核难为由推卸责任。
因此,审核难度可以作为平台主张其无法做到100%事前过滤的理由,但不能免除其在收到通知后的处理义务,以及在技术可行范围内采取合理预防措施的责任。
那么,从平台视角看,如果接到此类这样的声明或投诉,平台依法应在多长时间内处理?“通知-删除”规则的适用标准是什么?
李振武介绍,我国法律未规定统一、精确的小时数,但要求“及时”,且从实践来看,各平台的处理时效也不太一致。
“通知-删除”规则的适用标准:首先,通知必须合格有效。通知应包括权利人的真实身份信息和构成侵权的初步证据。初步证据应能准确定位侵权内容并说明侵权事实(如声音对比)。如有委托他人举报的,还应该有明确的授权手续。其次,平台需进行初步审查。平台需对通知进行形式审查,判断其是否合格。对于合格通知,应及时转送被投诉用户,并依据初步证据判断是否采取删除等措施。最后,采取“必要措施”。措施不限于删除,应根据侵权严重程度选择,包括屏蔽、断开链接、终止服务等。
据新京报