2024 04/25

4月23日,北京互联网法院就“全国首例AI声音侵权案”(以下简称“AI声音案”)一审开庭宣判,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。人工智能生成内容往往借助于一定的素材进行机器学习和训练随后转换成具备一定“作品”外观的AI生成物,本案即利用文本转语音软件(以下简称“案涉产品”)生成的AI声音的“录音作品”。本案五被告,包括案涉产品的设计开发者、语音素材提供者、案涉产品的销售者、购买者、使用者,可谓牵涉生成式人工智能产业的主要主体,如何避免侵权风险,更好促进产业发展,值得深思。


一、AI声音案基本案情[1]


原告殷某是一名配音师,经朋友告知,原告发现他人利用其配音制作的作品在多个知名APP广泛流传。经声音筛选和溯源,发现上述作品中的声音来自于被告一北京某智能科技公司运营的平台中的文本转语音产品,用户通过输入文本、调整参数,可实现文本转化成语音的功能。原告曾接受被告二北京某文化传媒公司的委托录制录音制品,被告二为录音制品的著作权人。后被告二将原告为其录制的录音制品的音频提供给被告三某软件公司,允许被告三以商业或非商业的用途使用、复制、修改数据用于其产品及服务。被告三仅以原告录制的录音制品作为素材进行AI化处理,生成了涉案文本转语音产品并在被告四上海某网络科技公司运营的云服务平台对外出售。被告一北京某智能科技公司与被告五北京某科技发展公司签订在线服务买卖合同,由被告五向被告三下单采购,其中包括了涉案文本转语音产品。被告一北京某智能科技公司采取应用程序接口形式,在未经技术处理的情况下,直接调取并生成文本转语音产品在其平台中使用。


原告主张,被告的行为已经严重侵犯了原告的声音权益,被告一北京某智能科技公司、被告三某软件公司应立即停止侵权、赔礼道歉,五被告应当赔偿原告经济损失、精神损失。


二、AI声音案简要分析


(一)自然人的声音权益保护范围


本案原告起诉的案由是侵害人格权纠纷,依据的是《民法典》第1023条规定“对自然人声音的保护参照适用肖像权的保护”,将声音权益作为特殊的人格利益予以保护。人格权独立成编是我国民法典的一大特色,我国民法典保护的人格权分为一般人格权以及具体人格权,前者是指以人身自由、人格尊严为内容,具有高度概括性和权利集合性特点的权利;后者则是指生命权、身体权、健康权、姓名权、肖像权、名誉权、荣誉权、隐私权、婚姻自主权等权利。法律明确表述对自然人声音的保护“参照”适用肖像权,具有以下涵义:一是自然人仅对声音享有合法权益,对其保护并未上升至“权利”,并不具有法律明确规定的具体人格权的绝对效力及对世效力;二是在对自然人的声音进行保护时可以参考肖像权的侵权要件。


肖像是通过摄影、雕塑、录像、绘画、电子数字技术等手段,将自然人的五官特征、形体特征、肢体特征或其他可识别特征,以物质载体或虚拟物质方式表现其全部或局部,并能够为人们主要通过视觉方式感知的形象。肖像最基本的功能是识别。肖像权是法律赋予自然人对自己形象再现的排他性支配权,包括两种属性:一是积极作为的支配属性,如肖像使用权;二是消极防御的不受侵害属性,如维护肖像完整权。因此可知,声音与肖像本质上的相同点在于二者均具有识别性,声音权益的保护范围应当包括对声音的积极支配利用以及消极防御两个方面。


(二)被告行为是否构成侵权


根据上文,本案诉争的侵权行为——对原告声音素材的AI化使用及销售使用与原告声音具有“实质性相似”的文本转语音软件的行为,是否构成侵权,关键取决于对原告声音素材的AI化使用是否侵权。首先,案涉原告声音须具备可识别性,可以定位到特定的自然人,才可以作为具体人格权益获得保护;其次,被告是否出于商业目的未经许可使用原告声音;最后,需考察对于原告已经授权许可的录音制品是否可以延申至AI化使用这一行为。


北京互联网法院经过审理认为,自然人声音以声纹、音色、频率为区分,具有独特性、唯一性、稳定性特点,能够给他人形成或引起一般人产生与该自然人有关的思想或感情活动,可以对外展示个人的行为和身份。自然人声音的可识别性是指在他人反复多次或长期聆听的基础上,通过该声音特征能识别出特定自然人。利用人工智能合成的声音,如果能使一般社会公众或者相关领域的公众根据其音色、语调和发音风格,关联到该自然人,可以认定为具有可识别性。因此原告的声音可以获得法律保护。


而被告二北京某文化传媒公司对录音制品享有著作权等权利,但不包括授权他人对原告声音进行AI化使用的权利。被告二与被告三某软件公司签订数据协议,在未经原告本人知情同意的情况下,授权被告三某软件公司AI化使用原告声音的行为无合法权利来源。因此,被告二、被告三关于获得原告合法授权的抗辩不能成立。综上所述,被告行为构成侵权。其中被告二北京某文化传媒公司、被告三某软件公司未经原告许可AI化使用了原告声音,构成对原告声音权益的侵犯,其侵权行为造成了原告声音权益受损的后果,应承担相应的法律责任。被告一北京某智能科技公司、被告四上海某网络科技公司、被告五北京某科技发展公司主观上不存在过错,不承担损害赔偿责任。


三、生成式人工智能如何避免侵权?


2022年10月,OpenAI公司发布的大语言模型人工智能ChatGPT(生成式人工智能)标志着生成式AI(Artificial Intelligence,简称AI,译为人工智能)技术达到新的发展阶段。人工智能生成物给版权制度带来诸多挑战,主要包括人工智能生成物的可版权性问题、生成表达形式权利归属问题、生成表达形式来源标注问题和由此引发的版权侵权责任问题等。[2]事件中已经出现了诸如DreamWritter案[3]、威科先行数据库案[4]以及“Stable Diffusion”著作权案[5],主要涉及的便是有关人工智能生成物可版权性的探讨,而本案作为AI声音侵权第一案,则更多揭示了在利用享有在先权利(或权益)的素材进行生成式人工智能产品的设计开发、销售运营及使用的全流程中,如何更加规范化行业运作的问题。此前作为新兴产业,生成式人工智能呈现出野蛮发展的态势,而随着更多资本的投入、更大效益的产出,不可避免地会牵涉进更多主体、更多利益划分,法律纠纷的背后是市场主体利益的失衡,可以预见的是在未来会出现更多相关侵权纠纷。AI声音案给所有正在这一产业领域以及将要进入这一领域的多方主体继续明确了:通过裁判为新业态、新技术划定应用边界,并一以贯之地亮明兼顾保护人格权益与引导技术向善的司法态度。


因此,在避免侵权风险上,或许可以从规范化软件开发流程、明确权利授权范围、稳定权利授权许可链条以及提高平台合理注意义务等着手。随着互联网和人工智能不断发展,AI技术在各个领域的广泛应用,生成式人工智能的法律纠纷也会日益复杂多样,维持稳定的社会秩序、促进产业健康发展以及实现良法善治,离不开立法、司法的不断纵深完善,也需要学术界、产业界及实务届等多方关注。所有的改进方案,最终应该达成在数字技术时代平衡处理AI软件素材的权利人、作品的著作权人、作品载体的所有权人和社会公众之间的利益,实现产业链的可持续发展。[6]


引用及注释(向下滑动查看)


[1]“全国首例AI生成声音人格权侵权案一审宣判”,载“北京互联网法院”公众号,2024年4月23日。

[2]曹新明、马子斌:《生成式人工智能对版权制度的挑战及应对》,载《中国版权》2023年第6期。

[3]参见深圳市南山区人民法院(2019)粤0305民初14010号民事判决书。

[4]参见北京互联网法院(2018)京0491民初239号民事判决书、北京知识产权法院(2019)京73民终2030号民事判决书。

[5]参见北京互联网法院(2023)京0491民初11279号民事判决书。

[6]孙山:《数字技术时代作品“过度保护”现象的治理逻辑》,载《科技与出版》2024年第2期。