天天看點

張毅 朱安然 | 對ChatGPT等人工智能的法律思考

張毅 朱安然 | 對ChatGPT等人工智能的法律思考
張毅 朱安然 | 對ChatGPT等人工智能的法律思考

作者 | 張毅 朱安然

金誠同達律師事務所

繼AlphaGo後,ChatGPT成為又一個吸引大衆目光的人工智能産品,因為ChatGPT的火爆出圈,多家網際網路科技巨頭相繼宣布了類似的AI産品或研究項目,而在ChatGPT持續火熱的幾天内,“美國89%的大學生都是用ChatGPT做作業”、“多家學術期刊禁止将ChatGPT列為合著者”,“知名科幻雜志《克拉克世界》因大量AI生成投稿暫停征稿”等等離譜事件成為了各類新聞媒體的頭條。類似ChatGPT的AI特點是通過深度學習和訓練,極快地搜集并整理資料,最終輸出内容。也就是說,AI的“創作”本質還是對已有素材的整理和加工,這勢必涉及到資料保護、知識産權等領域的法律問題。

是以本文拟從ChatGPT引發的各種事件出發,從法律角度分析人工智能可能涉及的法律問題,思考法律對人工智能技術的回應。

一、人工智能生成物和知識産權

現階段,與人工智能關系最緊密的法律領域毫無疑問是知識産權法,無論是人工智能源代碼的保護,還是人工智能生成物的保護,或者對人工智能生成物侵權問題的探讨,都離不開知識産權法。

在上述問題中,對人工智能源代碼的保護無需多言,人工智能本質仍然計算機軟體,針對計算機軟體的保護大陸早有相關規定。人工智能不具備法律主體地位是各國主流觀點一緻公認的,即在法律上,人工智能不是“人”,以此為大前提,在人工智能生成物的可版權性上,學界尚有争議。有的學者認為可以将人工智能生成物視為作品,其作者拟制為人工智能的所有者[1],也有學者認為,人工智能生成物不享有著作權,而大陸著作權法承襲大陸法系,對作品的定義是“人的獨創性表達”,認為作品應當是作者人格的一種外在展現,且獨創性是基于人的創造性而産生的概念。而人工智能生成物的本質還是一種計算機指令運作的結果,其生成物(文字、繪畫等)并沒有人的參與,也不是“基于情感、思想”而産生的作品,自然談不上人格的展現,也不可能具有著作權[2]。上述兩種觀點中,第二種觀點在2019年為北京網際網路法院所接受,在其審理的威科先行法律資料庫分析式AI生成報告糾紛案件中,該法院認為,文字作品應由自然人創作完成,在現行法律可以對此類軟體的智力、經濟投入予以充分保護的情況下,不應對民事主體的基本規範進行突破,是以認定該人工智能生成物并非《著作權法》意義上的作品。筆者認為,随着人工智能的發展,生成式人工智能的生成物是否能被定性為大陸《著作權法》意義上的“作品”在實踐中難以一概而論。對于人工智能生成物是否能被認定為作品,以及相關的權屬問題,應當回歸生成式人工智能得出結果的技術流程,從生成式人工智能的根本原理出發,以肯定科技進步的積極态度對人工智能的生成物進行保護和規制。筆者将在另一篇文章中進一步闡明自己的觀點,在此不贅述。

另外一個問題是人工智能生成物導緻的侵權,如前文所述,人工智能是通過深度學習和訓練,極快地搜集并整理資料,最終輸出内容,其輸出内容很有可能帶有原始資料的“影子”,如此種類似構成了著作權法意義上的實質性相似,則極有可能侵犯他人的著作權。在這種情形下,侵權的判斷遵循一般法律标準即可,主要問題是怎麼确認責任承擔主體。從理論上來說,人工智能的所有者(即開發者)作為權利人,理應承擔人工智能導緻的侵權責任,但假如其中摻雜了客戶群體的行為,責任承擔主體的判斷就不能簡單限定為所有者,例如某一客戶要求ChatGPT為其生成一副畫,且明确規定了畫面的内容、顔色或表現手法,此後客戶将該畫作用到了其他地方,此時,如果該幅畫作存在侵權,則要求生成并使用該幅畫作的客戶毫無疑問也是侵權行為人,對于ChatGPT的所有者OpenAI來說,他們确實設計了相關程式,但生成并使用畫作的行為并不是出于他們的授意,那麼,提供了這麼一個侵權工具的OpenAI是否需要承擔侵權責任則需要進行進一步的判斷。

綜上,對于人工智能生成物可能導緻的侵權,對于人工智能的開發者和所有人來說,提示使用者法律風險、使用者協定中明确約定相關行為的豁免等行為十分重要;對于使用人工智能的使用者,也并不能抱着僥幸心理,認為人工智能生成的東西與自己無關,應當慎重使用人工智能生成物。

二、人工智能和資料保護

除知識産權外,人工智能可能面對的另外一個法律問題是資料保護。現階段,人工智能的功能實作幾乎都需要大量的資料進行學習和訓練,例如ChatGPT的智能對話功能就需要對大量資料的存儲、運算、識别和調用,是以,人工智能的資料使用勢必會涉及到資料安全的相關問題。

在網際網路高速發展的今天,資料是堪比石油的“工業血脈”,使用他人掌握的資料資訊,則有可能觸及不正當競争的紅線。從目前對ChatGPT的報道來看,ChatGPT似乎并不具備收集加密資訊的功能,其語料來源基本是公開的資料和資訊庫,似乎并不涉及不正當競争的相關内容,但假如以中國法視角來分析,公開的資料并不意味着可以随意引用。在大衆點評網資料資訊不正當競争糾紛一案中[3],百度搜尋引擎抓取大衆點評網上公開的點評資訊,法院認為雖然這樣的抓取行為并未違反robots協定,但同為網際網路公司,争奪相同的網絡使用者群體,“百度公司大量、全文使用涉案點評資訊,實質替代大衆點評網向使用者提供資訊”,是以該行為構成不正當競争。從這一案件可以看出,起碼對于以提供資料服務的網際網路公司而言,公開的資料同樣是公司的核心競争力和有價财産。以此為視角,假如使用者向ChatGPT提出一個“哪裡的火鍋好吃”,那麼經過公開資料檢索的ChatGPT是否可以依據相關的點評網站給出自己的推薦呢?假如可以,則這種推薦有相當大的可能替代點評網站在使用者處的作用,以此類推,很多提供資訊服務的網站(這裡需要排除提供專業性極強的資訊的網站)都有可能被這樣簡單快捷的問答機器人所替代,進而産生不正當競争的風險。

除不正當競争外,人工智能似的資料采集還有可能涉及到使用者個人資料的保護。使用者使用類似機器人時,一般需要經過注冊程式,在詢問相關問題時,也有可能暴露個人的資訊,雖然OpenAI宣稱ChatGPT收集的使用者資訊都會在一定時間内删除,但并不代表個人資訊在類似的人工智能産品中得到了很好的保護,是以對于相關的開發者來說,除了在使用者協定中明确隐私資料收集的範圍、處理規則,使使用者知情并征得使用者的同意外,還應當注意使用者資料收集的程度和範圍。

三、人工智能和社會治理

最後,我們從更廣的視角來看人工智能對社會治理的影響。ChatGPT語料的的來源是公開的資料,而公開的意見勢必會存在攜帶一些釋出者自身的觀點、傾向。于是ChatGPT的回應同樣會攜帶言論傾向性的基因,這可能導緻一種人工智能領域的“資訊繭房”,即任意立場的人與ChatGPT對話時,獲得了符合期待的回答,進而進一步加深不同意識下的不同認知,是以,關注人工智能在社會輿論方面的影響,如何避免人工智能的“回答”輸出不利于社會穩定的内容,依然是一個值得研究的課題。此外,精神文化作為社會治理的重點内容,幾乎是直面ChatGPT等類似人工智能的沖擊,以英文向ChatCPT提問将獲得比其他語種更加準确和多樣的回答,同樣可以視為一種文化的輸出,如何處理由此帶來的精神浪潮是一個值得思考的問題。而對于大陸來說,現在全球化進入了一個新的階段,中國作為世界工廠需要世界市場,于是面臨着越來越強烈的文化輸出需求,利用大衆對新技術的好奇,潛移默化地影響大衆對某一問題的認知,毫無疑問是提供一個新的視角和思路。

除上述社會認知方面的問題,人工智能帶來的另外一個問題是違法犯罪。類似人工智能将擁有比人腦更加快捷的資料收集能力,假如人工智能可以為不法分子制定詳備的犯罪計劃,那顯然不會利于社會的穩定。而這并非惡意假設,美國媒體VICE曾經報道,ChatGPT可以完整提供一起爆炸搶劫案的策劃,從爆炸物的制作到搶劫方案,十分詳盡。這個問題的背後,即是對人工智能負面利用。從文章代筆到制定犯罪計劃,新的工具都會面臨被用來違法犯罪的風險,這毫無疑問是社會治理需要關注的問題。

四、法律對人工智能的回應

本文主要探讨了人工智能的部分法律風險,但人工智能技術的發展毫無疑問是值得高興和期待的,人工智能技術的持續發展或許可以進一步解放生産力,帶動科學文明進一步攀登高峰,而智能化的機器人勢必會給人類帶來更加便捷的生活。

相比于技術,法律作為社會秩序之一,滞後性和穩定性是其本質特征,我們并不能要求法律随時給予技術以回應,也不能因為新技術的出現就認為應當設立新法,針對人工智能使用中可能出現的問題,在實踐中靈活運用法律解釋技術,使現有法律可以覆寫新技術的使用情形,同時充分發揮行政力量在社會治理中的作用,或許能更好的規制人工智能帶來的風險。

注釋(上下滑動閱覽)

[1] 參見熊琦:《人工智能生成内容的著作權認定》,知識産權,2017年第3期

[2] 參見王遷《論人工智能生成的内容在著作權法中的定性》,法律科學( 西北政法大學學報),2017年第5期

[3] (2015)浦民三(知)初字第528号

來源:金誠同達

編輯:Sharon

張毅 朱安然 | 對ChatGPT等人工智能的法律思考

繼續閱讀