4月16日,《人工智能法(示範法)2.0》(以下簡稱“《示範法2.0》”)釋出,2.0版本的文稿對2023年8月釋出的《人工智能法示範法1.0(專家建議稿)》進行了一次重大的疊代更新。其中,最引人注目的内容之一,即在《示範法2.0》的第七十一條,首次規定了開源人工智能開發者的法律責任減免。根據《示範法2.0》的規定,“以免費且開源的方式提供人工智能研發所需的部分代碼子產品,同時以清晰的方式公開說明其功能及安全風險的,不承擔法律責任。免費且開源提供人工智能的個人、組織能夠證明已經建立符合國家标準的人工智能合規治理體系,并采取相應安全治理措施的,可以減輕或免于承擔法律責任。”這意味着法學界在利用人工智能法律規範促進發展的問題上,态度鮮明地支援人工智能開發者采用開源的發展模式,并通過專門的減免責條款設計等措施,鼓勵人工智能研發的技術公開和共享。在往期的專欄中,飒姐團隊一直強調“公共”和“開源”是AGI的核心價值。随着人工智能逐漸開始賦能各領域生産力的發展,唯有通過規範的設計,對其基于知識産權的“私益”與基于全人類技術發展的“公益”予以平衡,才能夠真正實作“共赢”,促進AGI領域良性發展。
01大模型的開源與閉源之争
在AI大模型研發領域,“開源”與“閉源”兩派的争論由來已久。二者最近的一次激烈交鋒,即2024年3月初的馬斯克訴OpenAI案,标志着雙方的沖突已經由單純的技術競争擴充到了反壟斷等法律與合規領域。作為閉源大模型開發者的代表,在馬斯克的指控中,OpenAI在接受了微軟的注資之後,已經在事實上成為了微軟控制下的閉源子公司,令其所開發的GPT-4等系列産品成為了微軟攫取巨額商業利潤的工具。為了實作盈利目标,OpenAI已逐漸背離了最初對于公共開源人工通用智能(AGI)的承諾,并開始在相關領域中建構科技霸權。雖然馬斯克的上述指控直到目前為止都沒有充分的證據支援,且基于其長期以來的“網紅人設”,提起訴訟似乎也隻是其為了自家XAI公司新開發的開源大模型進行營銷的手段。但從這一訴訟産生的影響中亦不難看出,新興開源大模型的開發者與長期在業界占據上司地位的“不那麼Open”的OpenAI之間,确實已存在利益與開發理念上的諸多沖突。
雙方沖突的存在一方面是由于OpenAI确實靠閉源大模型的開發獲得了名利雙收的成果。雖然在其2015年初創之時,OpenAI确實是以“確定通用人工智能造福全人類”為自身的核心使命,并試圖建構一家與傳統科技公司不同的非盈利性機構;但其真正在ChatGPT的開發上實作破圈卻是建立在微軟不斷向其抛去橄榄枝的基礎之上。根據公開資料顯示,OpenAI成立至今,微軟共向其投資130億美元,并掌握了OpenAI營利業務部份49%的股權。可見,馬克思的指控也并非空穴來風,OpenAI如今在AI大模型開放領域取得的成就與其背離初衷,堅持為微軟進行閉源産品開發的事實之間确實難以分割。而另一方面,該沖突的存在則是由于GPT-4确實至今在業界仍舊占據着技術上的引領地位。在AI大模型研發的競争于世界範圍内愈演愈烈的背景下,包括XAI的3140億大模型Grok-1與Meta公司于前日釋出的4000億大模型Llama 3都作為開源大模型的代表,在各自的優勢領域上對GPT-4提出了挑戰。但挑戰者始終是挑戰者,作為閉源大模型“唯一王者”的GPT-4 turbo依舊在語言類大模型領域中占據着絕對的上司地位。作為放棄了商業導向,以公益性的資料擷取和研發作為首要目标的開源大模型開發者,讓其看着閉源開發者賺得盆滿缽滿的同時在技術上仍保持行業領先,心中屬實不是滋味。
02
制度對開源與閉源沖突的平衡
于是,在技術和經濟性層面尚且不能解決開源大模型開發者與閉源大模型開發者間沖突的情況下,法律制度層面率先提出了這一問題的解決方案。本次《示範法2.0》中對開源人工智能開發者法律責任的減免所進行的規定,在很大程度上向世界分享了具有大陸特色的人工智能治理思路。
首先,從《示範法2.0》第七十一條的規定中可以看出,所謂“開源人工智能的開發者”即針對以“免費且開源的方式提供人工智能”的主體,這一定義直接排除了盈利性的人工智能開發者。而對于非盈利的開源人工智能開發者實際上又通過第七十一條的兩款規定分為了兩類,即“同時以清晰的方式公開說明其功能及安全風險的”和“能夠證明已經建立符合國家标準的人工智能合規治理體系,并采取相應安全治理措施的”,前者直接不承擔法律責任,後者則可以對法律責任酌情進行減免。這一思路,某種意義上是對民事法律“誰獲益誰擔責”原則的展現,對于沒有利用開發的人工智能産品獲得利益,且已經對自研産品的風險充分完成了合規工作的主體,法律應當予以鼓勵,故視其合規程度的不同,對其予以不同程度的責任減免。其次,《示範法2.0》并沒有明确列舉減免法律責任的類型,而是直接采用了“不承擔法律責任”與“減輕或免于承擔法律責任”的表述。這意味着對于非盈利的開源人工智能開發者,在其完成了自身合規建構的前提下,對其法律責任的減免範圍是非常寬泛的。采用這種方式的規定,既是對開源人工智能開發者個人利益與其為科研領域公益做出貢獻之間的平衡,也是鼓勵其加強自身合規建構,在技術研發過程中充分考慮可能存在的風險,并就安全風險等對社會進行公開說明。
03
技術開源與AGI的未來生态
實際上,雖然閉源大模型能夠通過對知識産權的保護吸引更多的研發投入,并利用這一優勢進一步穩固其在行業中的領先地位,但開源大模型本身亦具有許多閉源開發者所必須割舍的有利條件。如開源的開發模式依靠社群建構驅動創新,其允許全球範圍内對領域感興趣的開發者共同參與開發,在模型訓練和資料擷取上本身即更為高效。再如對代碼進行開源可以很大程度提高程式的靈活性和可定制性,并使大模型具有更高的可審計性,通過社群成員對源代碼和參數的不斷審查,能夠更好地降低AI的安全風險,提高大模型的合規程度。此外,閉源開發的代碼始終具有反壟斷審查的風險,相關開發者往往難以解釋其無意通過技術壟斷,達到限制市場的公平競争的目的。是以,在未來,采用開源形式的開發者在法律風險規避、自身合規建構等方面是具有相當程度的優勢的。
04
寫在最後
實際上,從目前AGI領域發展的角度上,單純讨論利益的平衡,對于智力成果“私益”的保護某種程度上是應當向人類技術未來的“公益”作出适當讓步的。當然,這種“讓步”并非是損害開發者因智力成果而享有的相關權益,而是通過《示範法2.0》中提到的此類方式,通過權利與責任的平衡,促進人工智能開發者能夠更加理性地選擇适合自己的賽道,無論開源或是閉源,最終目标都是促進AGI行業發展,推動全球科技創新和經濟增長。
以上是今天的分享,感恩讀者!
如果您身邊有對新科技、數字經濟感興趣的朋友,歡迎轉發給Ta。
擷取詳細資訊,請聯絡飒姐團隊
飒姐工作微信:【 xiaosalawyer】
飒姐工作電話:【 +86 171 8403 4530】