articletitle:人工智能生成内容侵权:法律责任与伦理挑战
文章主题:关键词:ChatGPT, 人工智能, 侵权责任, 深度合成技术
作者|冯 姣
责编|薛应军
正文共2782个字,预计阅读需8分钟▼
“3月1日杭州市取消限行”的假新闻再次引发了社会对美国OpenAI公司旗下人工智能助手ChatGPT的关注。作为一款以人工智能技术为基础的自然语言处理工具,ChatGPT以其独特的注意力机制提升了模型训练的速度,并通过引入基于人类反馈的强化学习机制,使其具备了完成诸如文章写作、聊天以及翻译等多元化的任务能力。自从2022年底发布以来,ChatGPT在全球范围内迅速崭露头角,赢得了广泛的认可与赞誉。
ChatGPT的流行背后隐藏着许多知识产权和法律问题。首先,ChatGPT需要使用大量数据来运行其预设功能,而这些数据的来源可能非常广泛,并不是所有数据都经过著作权人的许可,这种使用方式并不符合我国《著作权法》第二十四条规定的精神“合理使用”。其次,ChatGPT可能会侵犯个人信息和商业秘密等,因为OpenAI的使用条款规定,ChatGPT对用户输入的内容拥有广泛的使用权。如果用户输入的内容包含个人隐私或商业秘密等信息,那么就存在数据泄露的风险。除此之外,ChatGPT还可能面临其他法律和伦理风险,例如人工智能幻觉(即人工智能的“自信反应”),算法歧视,“算法黑箱”等问题。因此,我们需要深入探讨ChatGPT生成内容的知识产权责任归属等问题。
ChatGPT生成内容侵权的法律责任承担
在法律角度审视,ChatGPT的提供方必须遵循相关法律法规,履行其应有的法律责任。根据我国最新发布的《互联网信息服务深度合成管理规定》,深度合成技术是一种通过深度学习和虚拟现实等技术生成合成文本、图像、音频、视频以及虚拟场景等网络信息的方法。此规定详细规定了深度合成服务提供者、技术支持者和使用者的职责与义务。对于服务提供者来说,他们需要确保信息安全、遵守合同约定并建立有效的谣言处理机制。而对于使用者,他们被要求不利用深度合成技术制作、复制、发布或传播虚假新闻信息。ChatGPT作为深度合成服务技术的一部分,如果在我国被使用并且生成的内容涉及到著作权和个人信息等方面的侵犯,那么ChatGPT的提供者将会面临相应的法律责任。
在深入探讨人工智能生成内容的权责问题时,我们需要从案例的角度进行分析。一旦人工智能生成的内容的权利主体被明确确认,那么相应的义务主体也应被 equivalent地确认。在2019年的“北京菲林律师事务所诉北京百度网讯科技有限公司侵害署名权、保护作品完整权、信息网络传播权纠纷案”中,法庭强调了自然人在创作完成时仍然是著作权法意义上的作品,尽管软件的研发者和用户不应该被视为分析报告的作者。然而,法庭同时也鼓励软件的使用和传播,并将其相关的权益授权给用户。到了2020年深圳市南山区人民法院在“腾讯诉盈讯科技侵害著作权纠纷案”中,法院判定涉案的文章属于我国著作权法所保护的文字作品,且是被告单位主持创作的法人作品。总的来说,对于人工智能生成内容的保护问题,实践中越来越受到人们的重视。根据权责利相统一的原则,如果人工智能生成内容的权利主体能够得到确认,那么相应的义务主体也应当得到确认。但是在具体的法律实践中,关于人工智能生成内容侵权的责任认定,相关的案例却相对较少。
在深入探讨用户在使用协议中所需承担的责任时,我们可以从OpenAI公司与用户的协议文本入手。根据《使用协议》第3条a项的规定,用户在遵守协议的前提下,拥有输入内容的所有权。此外,OpenAI公司在现行法律允许的范围内,将输出内容的所有权利权益转让给用户。从双方的职责划分来看,OpenAI公司始终秉持遵守法律法规及协议的原则,并在必要时使用用户提供的内容。与此同时,用户也需要对所提供的內容负责,确保其不违反任何现行法律或用户条款。在这种责任分配机制中,OpenAI公司作为服务提供者,利用用户输入的内容来训练ChatGPT。如果ChatGPT生成的内容涉及侵权行为,OpenAI公司会坚持“技术中立”的原则,不承担法律层面的责任。而作为利益享有者的用户,则需要承担相应的法律责任。
在深入分析ChatGPT生成内容侵权的法律责任承担问题时,我们可以从三个重要维度进行探讨:现有规范、案例以及协议。首先,从规范的角度来看,相关法律对于ChatGPT服务提供者的责任规定较为严格,可能会导致其承担更多的法律责任。其次,在用户协议方面,责任分配则明显倾向于ChatGPT服务提供者,将其承担大部分甚至全部责任,这无疑加大了其负担。最后,在实际案例中,许多案例都集中在权利主体的认定上,而对于法律责任的认定问题,尚有待进一步探索和研究。
ChatGPT生成内容侵权的法律责任优化路径
从域外实践看,人工智能侵权纠纷不断涌现。2022年11月,OpenAI、微软等被起诉,程序员指控名为GitHub Copilot的AI编程工具抄袭代码。2023年1月,AI绘画公司Stability AI Ltd.等被起诉,原告声称上述公司下载并使用了数十亿张受版权保护的图像,且未征得版权所有者的同意或对其进行补偿。在ChatGPT不断走红的背景下,在可预见的时间内,针对ChatGPT生成内容侵权的纠纷会日益增多。ChatGPT生成内容侵权的法律责任,亟待进一步优化。
明确ChatGPT生成内容侵权的归责主体。在理论层面,关于人工智能侵权归责,存在人工智能工具论、人工智能产品论、人工智能动物论、人工智能主体论等不同观点。在弱人工智能时代,ChatGPT欠缺独立的意识,生成内容受算法模型、训练和输入内容等的影响,故其难以成为侵权行为归责的主体。在ChatGPT生成内容侵权这一行为中,主要涉及服务提供者以及用户两类主体。从侵权行为的发生环节来看,算法模型由OpenAI公司设置,并由OpenAI公司进行打码训练,内容则由用户输入,三者缺一不可。根据OpenAI公司与用户的使用协议,OpenAI公司将ChatGPT生成内容的权益和责任转移给用户,符合权责利相统一的原则。但基于ChatGPT算法模型的复杂性和“算法黑箱”的存在,普通用户难以充分理解ChatGPT的运作逻辑,对ChatGPT生成内容缺乏相应的预期。在此背景下,要求用户对ChatGPT生成内容承担全部责任,有失公平。因此,在侵权行为发生后,应当根据ChatGPT算法模型、训练素材和输入内容在侵权行为中发挥作用的比重,划定双方的责任。
建立人工智能类产品标准作为免责事由。根据我国《产品质量法》第四十一条的规定,因产品存在缺陷造成人身、缺陷产品以外的其他财产损害的,生产者应当承担赔偿责任。但生产者能够证明有下列情形之一的,不承担赔偿责任:(1)未将产品投入流通的;(2)产品投入流通时,引起损害的缺陷尚不存在的;(3)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。就ChatGPT而言,OpenAI公司显然已经认识到了产品存在的缺陷,并在官网发布声明,声称如果权利人认为知识产权被侵权,可以向OpenAI公司发送声明,OpenAI公司会删除侵权内容以防止重复侵权的发生。因此,若ChatGPT进入中国,OpenAI公司难以使用《产品质量法》第四十一条的规定作为免责事由。从监管层面看,应当针对人工智能类产品的特殊性,出台人工智能类产品标准作为服务提供者的免责事由,并在鼓励科技创新和权利保护之间寻找平衡点。
建立社会化的风险转移机制。从域外国家实践来看,一些国家建立了人工智能赔偿责任基金和保险制度,以转移风险,促进人工智能产业发展。如欧盟对人工智能的强制责任保险作出了不同于传统保险制度的规定。就OpenAI公司和ChatGPT用户而言,若担心ChatGPT生成内容具有侵权的可能性,则可以通过购买相应商业保险,实现风险的社会化转移。保险制度和基金储备机制的建立,可以在责任归属难以充分界定时,使得权益被侵害者及时获得相应的赔偿,实现社会整体利益的最大化。
(作者单位:浙江财经大学法学院)
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!