法治时评|利用AI克隆声音须严守法律边界

山东法制报 |  2026-04-22 21:15:43

微信扫码扫码下载客户端

□ 程啸

近日,多名配音演员公开发声,反对擅自采集其声音素材用于AI训练、音色合成及商业变现的行为,自然人声音权益保护问题由此进入公众视线。

声音克隆通过对特定自然人的语音数据进行深度学习,训练出相应的人工智能模型,进而生成与该特定自然人声音高度相似的语音内容。这项技术的核心,在于对人的声音特征进行建模与再现。如果未经本人同意或无法定事由,克隆生成与其声音高度相似的声音,就会侵害其声音权益。依据我国民法典、个人信息保护法等法律,自然人的声音可以通过肖像权、个人信息权益加以保护;在某些情形下,还可以通过著作权法以及反不正当竞争法加以保护。

依据民法典,自然人的声音权益可参照适用肖像权保护的规定。由于每个自然人在音色特征、发音习惯等方面都有所不同,因此声音作为个人的生理标识,与肖像一样,可以用于识别特定的自然人。虽然我国法律没有将声音权规定为一项具体的人格权,但为防止他人随意复制、模仿、伪造特定自然人的声音,损害自然人的人格尊严和财产利益,民法典第1023条第2款明确规定,“对自然人声音的保护,参照适用肖像权保护的有关规定”。

同时,还可根据个人信息保护法对自然人的声音加以保护。自然人的声音属于个人信息。通过技术手段从声音中提取的、能够反映特定个体声音特征的声学特征模式(声纹),属于自然人的生物识别信息,是敏感个人信息。依据个人信息保护法,自然人对其个人信息的处理享有知情权和决定权,有权限制或拒绝他人处理,除非法律、行政法规另有规定。因此,任何人要利用自然人的声音来训练人工智能语音产品或者克隆其声音,都必须取得该自然人的单独同意或具备法定事由。否则,声音被他人非法处理的自然人,有权以侵害个人信息权益为由提起诉讼。

实践中,自然人是通过肖像权还是个人信息权益来保护声音权益,区别主要在两个方面。一是可识别性的认定标准。如果原告以侵害肖像权为由起诉非法进行声音克隆的行为人,就必须判断通过人工智能生成的声音能否识别出原告本人。司法实践中,被告往往会抗辩称,案涉声音经AI处理,不具有可识别性,社会公众难以仅凭声音识别出原告声音。而对于克隆后的声音是否具有可识别性,应当以社会一般人听到该声音后能否识别出特定自然人为标准。如果原告以侵害个人信息权益为由起诉,那么在认定被告所处理的声音信息是否属于个人信息时,可采取技术判断标准。

二是侵权赔偿责任的归责原则。原告参照肖像权保护的规定起诉,适用的是民法典第1165条第1款规定的过错责任原则,即原告需要证明被告在克隆或使用声音时存在主观上的过错。而如果以侵害个人信息权益起诉,考虑到个人信息处理者与个人之间技术能力等方面的不对等,适用的是个人信息保护法第69条第1款规定的过错推定责任,即由个人信息处理者证明自己没有过错,而非由个人证明处理者有过错。

——《法治日报》

责任编辑:陈修华