天天看点

张毅 朱安然 | 对ChatGPT等人工智能的法律思考

作者:知产前沿
张毅 朱安然 | 对ChatGPT等人工智能的法律思考
张毅 朱安然 | 对ChatGPT等人工智能的法律思考

作者 | 张毅 朱安然

金诚同达律师事务所

继AlphaGo后,ChatGPT成为又一个吸引大众目光的人工智能产品,因为ChatGPT的火爆出圈,多家互联网科技巨头相继宣布了类似的AI产品或研究项目,而在ChatGPT持续火热的几天内,“美国89%的大学生都是用ChatGPT做作业”、“多家学术期刊禁止将ChatGPT列为合著者”,“知名科幻杂志《克拉克世界》因大量AI生成投稿暂停征稿”等等离谱事件成为了各类新闻媒体的头条。类似ChatGPT的AI特点是通过深度学习和训练,极快地搜集并整理资料,最终输出内容。也就是说,AI的“创作”本质还是对已有素材的整理和加工,这势必涉及到数据保护、知识产权等领域的法律问题。

因此本文拟从ChatGPT引发的各种事件出发,从法律角度分析人工智能可能涉及的法律问题,思考法律对人工智能技术的回应。

一、人工智能生成物和知识产权

现阶段,与人工智能关系最紧密的法律领域毫无疑问是知识产权法,无论是人工智能源代码的保护,还是人工智能生成物的保护,或者对人工智能生成物侵权问题的探讨,都离不开知识产权法。

在上述问题中,对人工智能源代码的保护无需多言,人工智能本质仍然计算机软件,针对计算机软件的保护大陆早有相关规定。人工智能不具备法律主体地位是各国主流观点一致公认的,即在法律上,人工智能不是“人”,以此为大前提,在人工智能生成物的可版权性上,学界尚有争议。有的学者认为可以将人工智能生成物视为作品,其作者拟制为人工智能的所有者[1],也有学者认为,人工智能生成物不享有著作权,而大陆著作权法承袭大陆法系,对作品的定义是“人的独创性表达”,认为作品应当是作者人格的一种外在体现,且独创性是基于人的创造性而产生的概念。而人工智能生成物的本质还是一种计算机指令运行的结果,其生成物(文字、绘画等)并没有人的参与,也不是“基于情感、思想”而产生的作品,自然谈不上人格的体现,也不可能具有著作权[2]。上述两种观点中,第二种观点在2019年为北京互联网法院所接受,在其审理的威科先行法律数据库分析式AI生成报告纠纷案件中,该法院认为,文字作品应由自然人创作完成,在现行法律可以对此类软件的智力、经济投入予以充分保护的情况下,不应对民事主体的基本规范进行突破,因此认定该人工智能生成物并非《著作权法》意义上的作品。笔者认为,随着人工智能的发展,生成式人工智能的生成物是否能被定性为大陆《著作权法》意义上的“作品”在实践中难以一概而论。对于人工智能生成物是否能被认定为作品,以及相关的权属问题,应当回归生成式人工智能得出结果的技术流程,从生成式人工智能的根本原理出发,以肯定科技进步的积极态度对人工智能的生成物进行保护和规制。笔者将在另一篇文章中进一步阐明自己的观点,在此不赘述。

另外一个问题是人工智能生成物导致的侵权,如前文所述,人工智能是通过深度学习和训练,极快地搜集并整理资料,最终输出内容,其输出内容很有可能带有原始数据的“影子”,如此种类似构成了著作权法意义上的实质性相似,则极有可能侵犯他人的著作权。在这种情形下,侵权的判断遵循一般法律标准即可,主要问题是怎么确认责任承担主体。从理论上来说,人工智能的所有者(即开发者)作为权利人,理应承担人工智能导致的侵权责任,但假如其中掺杂了客户群体的行为,责任承担主体的判断就不能简单限定为所有者,例如某一客户要求ChatGPT为其生成一副画,且明确规定了画面的内容、颜色或表现手法,此后客户将该画作用到了其他地方,此时,如果该幅画作存在侵权,则要求生成并使用该幅画作的客户毫无疑问也是侵权行为人,对于ChatGPT的所有者OpenAI来说,他们确实设计了相关程序,但生成并使用画作的行为并不是出于他们的授意,那么,提供了这么一个侵权工具的OpenAI是否需要承担侵权责任则需要进行进一步的判断。

综上,对于人工智能生成物可能导致的侵权,对于人工智能的开发者和所有人来说,提示用户法律风险、用户协议中明确约定相关行为的豁免等行为十分重要;对于使用人工智能的用户,也并不能抱着侥幸心理,认为人工智能生成的东西与自己无关,应当慎重使用人工智能生成物。

二、人工智能和数据保护

除知识产权外,人工智能可能面对的另外一个法律问题是数据保护。现阶段,人工智能的功能实现几乎都需要大量的数据进行学习和训练,例如ChatGPT的智能对话功能就需要对大量资料的存储、运算、识别和调用,因此,人工智能的数据使用势必会涉及到数据安全的相关问题。

在互联网高速发展的今天,数据是堪比石油的“工业血脉”,使用他人掌握的数据信息,则有可能触及不正当竞争的红线。从目前对ChatGPT的报道来看,ChatGPT似乎并不具备收集加密信息的功能,其语料来源基本是公开的资料和信息库,似乎并不涉及不正当竞争的相关内容,但假如以中国法视角来分析,公开的数据并不意味着可以随意引用。在大众点评网数据信息不正当竞争纠纷一案中[3],百度搜索引擎抓取大众点评网上公开的点评信息,法院认为虽然这样的抓取行为并未违反robots协议,但同为互联网公司,争夺相同的网络用户群体,“百度公司大量、全文使用涉案点评信息,实质替代大众点评网向用户提供信息”,因此该行为构成不正当竞争。从这一案件可以看出,起码对于以提供数据服务的互联网公司而言,公开的数据同样是公司的核心竞争力和有价财产。以此为视角,假如用户向ChatGPT提出一个“哪里的火锅好吃”,那么经过公开数据检索的ChatGPT是否可以依据相关的点评网站给出自己的推荐呢?假如可以,则这种推荐有相当大的可能替代点评网站在用户处的作用,以此类推,很多提供信息服务的网站(这里需要排除提供专业性极强的信息的网站)都有可能被这样简单快捷的问答机器人所替代,从而产生不正当竞争的风险。

除不正当竞争外,人工智能似的数据采集还有可能涉及到用户个人数据的保护。用户使用类似机器人时,一般需要经过注册程序,在询问相关问题时,也有可能暴露个人的信息,虽然OpenAI宣称ChatGPT收集的用户信息都会在一定时间内删除,但并不代表个人信息在类似的人工智能产品中得到了很好的保护,因此对于相关的开发者来说,除了在用户协议中明确隐私数据收集的范围、处理规则,使用户知情并征得用户的同意外,还应当注意用户数据收集的程度和范围。

三、人工智能和社会治理

最后,我们从更广的视角来看人工智能对社会治理的影响。ChatGPT语料的的来源是公开的数据,而公开的意见势必会存在携带一些发布者自身的观点、倾向。于是ChatGPT的回应同样会携带言论倾向性的基因,这可能导致一种人工智能领域的“信息茧房”,即任意立场的人与ChatGPT对话时,获得了符合期待的回答,从而进一步加深不同意识下的不同认知,因此,关注人工智能在社会舆论方面的影响,如何避免人工智能的“回答”输出不利于社会稳定的内容,依然是一个值得研究的课题。此外,精神文化作为社会治理的重点内容,几乎是直面ChatGPT等类似人工智能的冲击,以英文向ChatCPT提问将获得比其他语种更加准确和多样的回答,同样可以视为一种文化的输出,如何处理由此带来的精神浪潮是一个值得思考的问题。而对于大陆来说,现在全球化进入了一个新的阶段,中国作为世界工厂需要世界市场,于是面临着越来越强烈的文化输出需求,利用大众对新技术的好奇,潜移默化地影响大众对某一问题的认知,毫无疑问是提供一个新的视角和思路。

除上述社会认知方面的问题,人工智能带来的另外一个问题是违法犯罪。类似人工智能将拥有比人脑更加快捷的资料收集能力,假如人工智能可以为不法分子制定详备的犯罪计划,那显然不会利于社会的稳定。而这并非恶意假设,美国媒体VICE曾经报道,ChatGPT可以完整提供一起爆炸抢劫案的策划,从爆炸物的制作到抢劫方案,十分详尽。这个问题的背后,即是对人工智能负面利用。从文章代笔到制定犯罪计划,新的工具都会面临被用来违法犯罪的风险,这毫无疑问是社会治理需要关注的问题。

四、法律对人工智能的回应

本文主要探讨了人工智能的部分法律风险,但人工智能技术的发展毫无疑问是值得高兴和期待的,人工智能技术的持续发展或许可以进一步解放生产力,带动科学文明进一步攀登高峰,而智能化的机器人势必会给人类带来更加便捷的生活。

相比于技术,法律作为社会秩序之一,滞后性和稳定性是其本质特征,我们并不能要求法律随时给予技术以回应,也不能因为新技术的出现就认为应当设立新法,针对人工智能使用中可能出现的问题,在实践中灵活运用法律解释技术,使现有法律可以覆盖新技术的使用情形,同时充分发挥行政力量在社会治理中的作用,或许能更好的规制人工智能带来的风险。

注释(上下滑动阅览)

[1] 参见熊琦:《人工智能生成内容的著作权认定》,知识产权,2017年第3期

[2] 参见王迁《论人工智能生成的内容在著作权法中的定性》,法律科学( 西北政法大学学报),2017年第5期

[3] (2015)浦民三(知)初字第528号

来源:金诚同达

编辑:Sharon

张毅 朱安然 | 对ChatGPT等人工智能的法律思考

继续阅读