天天看點

吳大奎|基于生成式人工智能服務風險的分級法律規制研究

作者:上海市法學會
吳大奎|基于生成式人工智能服務風險的分級法律規制研究
吳大奎|基于生成式人工智能服務風險的分級法律規制研究
吳大奎|基于生成式人工智能服務風險的分級法律規制研究

基于海量資料、先進算法和雄厚算力建構出的生成式人工智能服務一經出現,便給社會各行各業帶來極大的變化。過往法律零散地對生成式人工智能服務産生的風險進行回應式規制,具有滞後性,不能及時的應對各種風險。而最近出台的針對生成式人工智能服務的一系列針對性法律規制,又對生成式人工智能服務的風險分級類别、依據、後果規定得不夠細緻,無法引導生成式人工智能服務兼顧發展與安全。是以以現有立法為基礎,綜合國外立法經驗和國内學者觀點,從生成式人工智能服務的“基礎模型-專業模型-服務應用”的現實風險出發,厘清生成式人工智能服務風險分級的種類、依據及後果,為生成式人工智能服務在法治軌道上發展提供法律規制指引。

吳大奎|基于生成式人工智能服務風險的分級法律規制研究

一、引言

生成式人工智能服務的代表——ChatGPT是美國OpenAI實驗室開發的一款提供對話互動服務的應用,其憑借着海量的語料庫和先進的算法模型,給使用者帶來了仿佛與真人對話一般的體驗。近來,衆多生成式人工智能服務井噴式湧現,給人們帶來了工作學習方面的諸多便捷。但是與此同時,以ChatGPT為代表的生成式人工智能服務也在國家安全、社會輿情、個人資訊等諸多方面産生了安全隐患問題。積極立法應對生成式人工智能服務在網絡空間中帶來安全隐患問題,既是黨和人民的共同期盼,也是順應國際形勢的潮流。具體而言,生成式人工智能服務在訓練基礎模型過程中使用海量資料,可能對國家資料安全、社會輿情、個人資訊安全造成危險;生成式人工智能服務在建設算法模型的過程中,由于代碼的自動疊代導緻算法透明度低,可能産生侵權行為發生後責任劃分困難的風險;生成式人工智能服務的服務應用端可能由于自動收集使用者生成内容,出現隐私洩露,超出最小限度收集個人資訊的問題。目前大陸也就生成式人工智能服務出台了《生成式人工智能服務管理暫行辦法》,但還是存在相關概念不清、立法理念不明、規制措施不具體等問題。目前中國國内學者對于生成式人工智能服務的治理路徑觀點大緻分為三類,一類學者認為規制生成式人工智能服務需要法律法規提出針對生成式人工智能每一項可能風險的具體解決措施;另一類學者認為規制生成式人工智能服務首先要提出與技術相關的各項法律原則;還有一類學者認為針對生成式人工智能服務的不同層級需要采取不同的規制模式。本文将在第三類學者的研究基礎上,通過梳理國内國外生成式人工智能相關立法,吸納學界相關研究觀點,秉承國家對于新興技術持有的發展與安全并進的理念,基于生成式人工智能的風險提出分級規制措施。

二、生成式人工智能服務的機制、特點及風險

規制生成式人工智能服務,首先需要了解生成式人工智能的運作機制并總結生成式人工智能服務的特點,進而明确生成式人工智能服務可能會産生哪些風險。

(一)生成式人工智能服務的機制

根據OpenAI官網的描述,生成式人工智能的産生(以ChatGPT為例)分為四個階段,包括:(1)給生成式人工智能提供訓練資料幫助其構模組化型。(2)進行人工标注,引導生成式人工智能模型向人類期待的方向作答。(3)通過人工對GPT生成的多個答案進行排序建立獎勵模型。(4)将GPT的生成結果再投入模型,實作模型的不斷疊代優化。可以将生成式人工智能服務的産生大緻總結為三個層面:(1)通過各種途徑收集大量資料建構基礎模型階段。(2)通過人工标注和獎勵模型建構算法模型階段。(3)通過服務端生成内容回報疊代優化階段。

(二)生成式人工智能服務的特點

生成式人工智能服務(以ChatGPT為例)的智能由兩方面産生,一方面是利用一個叫“轉換器”的基于神經網絡的深度學習模型對使用者的提問文本和海量語料進行機率性比對分析,進而使得計算機生成結果接近自然人語言;另一方面是通過“人類回報強化學習機制”和一個叫“生成式對抗網絡”的深度學習模型,讓人類和人工智能自身對使用者提問和人工智能生成結果做出正面和反面的評價,進而推進人工智能不斷疊代優化。據此,本文總結出了生成式人工智能服務具有的三個特點:(1)生成式人工智能服務的生成結果具有随機性,生成式人工智能服務需要依靠海量資料進行預訓練才能提高生成結果的真實性和準确性。(2)生成式人工智能服務具有回報性,生成式人工智能服務的疊代優化需要人工标注者和使用者不斷回報。(3)生成式人工智能服務具有人機互動性,生成式人工智能服務智能的展現一方面離不開強大的算力整合海量資料進行預訓練,另一方面也需要人類參與人工标注和生成内容回報,進而使服務不斷疊代優化。

(三)生成式人工智能服務的風險

基于生成式人工智能服務的運作機制和特點,生成式人工智能服務的風險主要來源于以下三個方面:(1)生成式人工智能服務在建構基礎模型收集、使用大量資料可能具有風險。一方面生成式人工智能服務對資料的利用在廣度上可能存在風險,由于生成式人工智能服務在預訓練階段需要盡可能多地通過技術手段搜集資料以提高模型的準确性和真實性,一旦超出許可範圍搜集了國家資料、政府資料以及個人隐私資料,則可能違背網絡安全法、資料安全法、個人資訊保護法的相關規定,需要厘清生成式人工智能服務收集利用資料的範圍;另一方面生成式人工智能服務對資料的利用在深度上可能存在風險,在收集到使用者資料後,算法可能會自發地挖掘使用者隐藏資料,進而優化模型,例如通過行蹤資訊推斷出醫療資訊等,這無疑是對使用者知情同意權的一種侵犯,需要克服技術慣性,将相關法律規定内嵌至算法當中。由于基礎模型能産生較大的社會效益,是以其規制以内嵌治理原則為主,有的學者認為生成式人工智能的治理要基于:協同共治、提升透明度、保障資料品質、倫理先行的元規則進行。還有的學者認為生成式人工智能的治理需要在把控好發展節奏的同時,推進倫理先行、人機和諧、技術向善的治理原則落實到生成式人工智能的方方面面。(2)生成式人工智能應用在算法模型上可能存在風險,目前以ChatGPT為代表的較為前沿的生成式人工智能服務的算法模型在建構過程中,人工智能自動生成的代碼占了一部分比例,且在可預見的未來中,人工智能自動生成的代碼比例占總代碼的比例會逐漸上升,算法的透明性、可解釋性、可控制性無疑會極大地下降,可能會模糊侵害事實和算法決策之間的因果關系,進而導緻責任配置設定不公,引發社會沖突。是以生成式人工智能服務需要在投入市場前,充分披露、解釋、檢驗其算法模型,為之後可能發生的生成式人工智能服務侵害行為提供争議解決依據。(3)生成式人工智能服務的服務層面可能存在風險,生成式人工智能服務為了疊代優化自己的模型,可能超出在合理、正當、必要的範圍内收集使用者在使用服務過程中産生的各種資訊,需要相關法律規定予以規制。

生成式人工智能服務存在風險這一點毋庸置疑,但是不同生成式人工智能服務的風險卻不盡相同。如果采取一刀切的治理方式,無疑會極大地阻礙技術的發展,但倘若采取過于寬松的治理方式,難免又會對個人資訊安全、社會輿情安全乃至于國家安全産生威脅。有的學者認為生成式人工智能的監管分為兩方面:一方面是技術控制先行,推動國家層面介入基礎模型的生産,以避免原則性問題;另一方面對應用層面采取包容審慎的态度,通過避風港、監管沙盒實施靈活治理。還有的學者認為大陸在總體上堅持包容審慎的治理态度,具體包括從法律層面的制度建構、軟法規範層面的填補式風險治理以及通過監管沙盒實作靈活型風險治理等三方面來完善現有的人工智能風險治理體系,在技術創新與風險治理之間尋求平衡,進而實作數字經濟的健康持續發展。此外,有學者認為生成式人工智能的治理應當從“技術支援者一服務提供者一内容生産者”的監管架構轉變為依據“基礎模型一專業模型一服務應用”的業态分層治理的模式,進而在促進基礎模型發展的同時,将生成式人工智能産生的風險通過包容審慎、分類分級、靈活治理化解在專業模型層面和服務應用層面。以上學者觀點或多或少都存在一些不足。本文認為基于生成式人工智能服務的特點,希望通過法律完全解決生成式人工智能服務的觀點是遠遠不夠的,必須也要同時将技術向善、技術透明、技術可解釋等原則内嵌入算法當中;對于希望隻通過歸納生成式人工智能的使用原則應對生成式人工智能服務可能帶來的風險的觀點,本文認為也達不到應有的效果,因為對于例如人工标注階段和算法疊代階段可能造成的資料安全風險,如果沒有嚴格的對應懲處措施,将使國家安全、社會輿論、個人資訊安全面臨極大的風險;對于認為生成式人工智能服務不同層級應當運用不同監管工具的觀點,本文認為不夠具體翔實,對于技術部分以内嵌相關原則的形式進行監管無可非議,但是對于具體的生成式人工智能服務進行規制時,需要依據其風險級别,寬嚴相濟地進行治理,這樣才能在促進技術蓬勃發展的同時,避免難以承受的風險發生。

在這些研究基礎上,本文認為立法者應從生成式人工智能服務的基礎模型層面、算法模型層面和應用服務層面出發,在基礎模型層面内嵌治理原則,實作技管結合,引導技術向善,根據算法模型的可解釋性、透明性、可控性以及服務層面生成内容的真實性、可靠性、準确性厘定不同生成式人工智能服務的風險,進行分級治理,才能兼顧技術發展與社會安全。

三、大陸生成式人工智能服務相關法律規制現狀

大陸對于生成式人工智能服務法律規制是從通過其他部門法相關法律條款對生成式人工智能服務的風險進行回應式治理到制定專門的部門規章進行集中式治理,這個過程中治理的針對性、有效性、直接性逐漸增強,但還是存在缺乏對生成式人工智能服務的翔實定義、對生成式人工智能服務的管理存在“一刀切”的情況、生成式人工智能服務相關規定不夠具體等問題。

(一)大陸生成式人工智能服務法律規制發展沿革

大陸對于生成式人工智能的治理主要分為兩個階段。在2023年4月11日以前,大陸主要通過零散的法律對生成式人工智能産生的風險進行回應式治理,在很長一段時間内人工智能法學研究仍然是依托具體部門法問題意識和研究方法開展,所謂的人工智能法隻是部門法披上了一層人工智能法的外衣,這樣做的優勢是可以直接沿用現有的監管工具,給予生成式人工智能技術充分的發展空間,促進大陸人工智能相關技術發展,劣勢則是分散的回應式治理對于生成式人工智能相關風險的治理具有一定的滞後性,不能及時對相關問題進行規制。

早先,大陸主要通過零散的法律法規,對生成式人工智能服務的各個環節分散治理。例如在生成式人工智能基礎模型擷取訓練資料時,要遵守個人資訊保護法第13條的規定,在處理網絡上的個人資訊時,要獲得個人同意,其次,要遵守個人資訊保護法第6條的規定,在最小範圍内收集個人資訊;接着,如果生成式人工智能基礎模型的訓練資料是通過網絡爬蟲的方式擷取的,則需要遵守網絡安全法第27條的規定,不得對被爬蟲的網絡站點造成影響;最後在擷取訓練資料時要遵守反不正當競争法第18條的規定,不得侵犯其他網絡營運者智力勞動成果投入而形成的資料産品。雖然以分散的法律對生成式人工智能産生的問題大都可以進行回應,但是一方面存在法律模糊地帶,例如使用者使用生成式人工智能産品生成的内容可否被企業無條件直接利用;另一方面,以分散的法律回應産生的問題針對性較弱,且回應具有滞後性,不能從根源上真正解決問題。

2023年4月以來,大陸相關部門相繼出台了《生成式人工智能服務管理辦法(征求意見稿)》《生成式人工智能服務管理暫行辦法》等專門性規定規制大陸生成式人工智能服務,這些規定一方面代表了大陸重視生成式人工智能服務規制問題,通過針對性的立法對生成式人工智能進行集中治理,開辟了大陸生成式人工智能治理的新時代,另一方面又存在一些定義不清、理念不明、規制措施不夠詳細的問題。

2023年4月11日,國家網際網路資訊辦公室釋出《生成式人工智能服務管理辦法(征求意見稿)》,該辦法是大陸首次對生成式人工智能服務以法律的方式進行規制,對生成式人工智能服務帶來的相關風險進行了回應,标志着大陸生成式人工智能立法走在了世界前沿,但是其中很多規定較為籠統,沒有對生成式人工智能服務進行分級治理,對服務商要求過高,可能阻礙生成式人工智能應用的發展。

2023年7月10日,國家網際網路資訊辦公室又釋出了《生成式人工智能服務管理暫行辦法》,其中第3條提到了“國家堅持發展和安全并重、促進創新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管”。這一條表明了國家推動生成式人工智能發展的決心,同時也展現了國家對生成式人工智能服務可能産生的風險的關注。盡管該條提出了對生成式人工智能服務實行分類分級監管的概念,卻沒有具體闡述分級的依據和種類,是以在具體分級治理的實際操作層面還存在很大的空白。

2023年8月15日,中國社會科學院國情調研重大項目大陸人工智能倫理審查和監管制度建設狀況調研起草組釋出了人工智能法示範法1.0(專家建議稿),其中第23條規定:“國家建立人工智能負面清單制度,對負面清單内的産品、服務實施許可管理,對負面清單外的産品、服務實施備案管理。國家人工智能主管機關根據人工智能在經濟社會發展中的重要程度以及一旦遭到攻擊、篡改、破壞或者非法擷取、非法利用,對國家安全公共利益或者個人、組織合法權益、經濟秩序造成的危害程度,牽頭制定并定期更新人工智能産品、服務負面清單。”人工智能法示範法雖然不是正式立法,但是具有很強的借鑒意義,第23條涉及的負面清單制度,實際上就是對人工智能産品、服務進行分級治理,分級的依據一方面是人工智能産品、服務本身在經濟社會發展中的重要程度,另一方面是一旦該産品、服務受到攻擊時可能産生的損失,分級的結果是高風險的人工智能産品、服務投入市場時需要事前許可,與此同時風險較低的人工智能産品、服務在投入市場時隻需要事後備案即可,同時兼顧了人工智能産品、服務的發展與安全。但是人工智能法示範法第23條也存在與《生成式人工智能服務管理暫行辦法》第3條同樣的問題,就是分級的依據太過寬泛,沒有具體的判斷标準,在實踐中很難操作,同時分級的種類還是不夠細緻,不能夠充分的兼顧生成式人工智能服務的發展與安全。

(二)大陸生成式人工智能服務法律規制存在的問題

基于對大陸生成式人工智能服務相關法律規定的梳理和目前學界研究現狀,大陸生成式人工智能法律服務規定主要存在以下三點不足:

1.缺乏對生成式人工智能服務的翔實定義

《生成式人工智能服務管理暫行辦法》第22條指出生成式人工智能技術,是指具有文本、圖檔、音頻、視訊等内容生成能力的模型及相關技術。這個定義既沒有展現出生成式人工智能服務的智能性,也沒有突出生成式人工智能服務的互動性,是以基于這個定義很難有針對性地化解生成式人工智能服務可能産生的風險。

2.對生成式人工智能服務的管理存在“一刀切”的情況

《生成式人工智能服務管理辦法(征求意見稿)》中完全沒有提到對生成式人工智能服務進行分類分級管理,《生成式人工智能服務管理暫行辦法》第3條提到對生成式人工智能服務進行分類分級管理,但也隻是一筆帶過。顯然目前大陸立法并沒有基于生成式人工智能服務可能存在不同等級風險進行詳盡的分級治理,這種“一刀切”的做法,一方面會導緻高風險的生成式人工智能服務産生的大量法律問題不能及時解決,另一方面又會阻礙低風險的生成式人工智能服務的正常發展,遲滞技術進步的腳步。

3.生成式人工智能服務相關規定不夠具體

《生成式人工智能服務管理暫行辦法》對于分級管理的分級依據、分級類别、不同級别的規制方式均語焉不詳,使得該規定隻是一紙空文,起不到相應的規避風險,促進經濟發展,維護市場穩定的作用。

四、國外生成式人工智能服務相關法律規制經驗借鑒

國外生成式人工智能服務相關法律規制以美國和歐盟為代表分為兩個大的類别,分别是以歐盟為代表基于風險分級的硬法規制和以美國為代表确立人工智能相關原則的軟法規制。下面将詳細論述兩種不同規制方式的概況以及大陸立法可以借鑒之處。

(一)通過劃分風險級别分級規制人工智能服務

歐盟在人工智能方面的立法非常完備,2023年6月14日,歐盟議會通過了關于人工智能法案的談判立場,歐盟理事會成員國現在将開始就法律的最後形式進行會談,預計在今年年底達成正式協定。人工智能法案依據人工智能的風險等級将人工智能分為四類,包括不可接受風險、高風險、有限風險和最小風險。人工智能法案的第7條規定了人工智能系統的分級規則,主要包括以下幾個方面:(1)人工智能系統的預期目的;(2)人工智能系統的一般能力和功能,獨立于其預期目的;(3)人工智能系統已被使用或可能被使用的程度;(4)人工智能系統處理和使用的資料的性質和數量;(5)人工智能系統自主行動的程度,同時基于以上人工智能系統的特征,評估其對自然人健康、安全或者基本權利傷害的風險,以及對環境造成重大損害的風險,确定人工智能系統的風險級别。概括來說就是基于人工智能系統本身的重要性、可解釋性以及透明性,确定人工智能系統的風險級别,進而進行分級治理。根據人工智能法案相關規定,不可接受風險級的人工智能系統禁止投入市場;高風險級的人工智能系統要在合格評估之後才能投入市場,投入市場之後還需要備案;有限風險和最小風險級的人工智能系統則既不需要合格評估,也不需要備案就可以投入市場。可以看到,歐盟的人工智能法案基于人工智能系統訓練資料的品質、算法模型的可解釋性以及系統本身可能對倫理、安全、經濟的影響,将人工智能系統劃歸到不同的風險級别,并基于風險級别對人工智能系統采取不同嚴格程度的規制方式,很大程度上平衡了人工智能系統的發展與安全。2022年12月1日,巴西資料保護局(ANPD)釋出了《巴西人工智能法(草案)》。無獨有偶,《巴西人工智能法(草案)》也是基于風險對人工智能系統分為禁止級、高風險級,同時要求禁止級的人工智能系統禁止投入市場,高風險級的人工智能系統投入市場前需要進行合格評估,所有級别的人工智能系統都需要備案。《巴西人工智能法(草案)》的風險分級依據也是人工智能系統本身的重要程度以及其可能對國家、社會、個人所造成的影響。

以歐盟的人工智能法案為代表的硬法規範大多基于風險對人工智能服務分級規制,通常将人工智能服務基于風險分為禁止級、高風險級、有限風險級、最小風險級四個等級,分級的依據包括:人工智能服務基礎模型訓練資料的數量與品質;人工智能服務涉及算法的透明性、可靠性、可解釋性;人工智能服務本身在經濟社會中的重要性以及其可能對社會産生的危害。

(二)通過明确基本原則規制人工智能服務

以軟法規制人工智能相關風險最早起源于經合組織。2019年5月,經合組織(OECD)通過了《人工智能原則》,主要包括:(1)包容性增長、可持續發展和福祉;(2)以人為本的價值觀和公平;(3)透明度和解釋性;(4)堅固、安保和安全;(5)責任。這五項原則也成了很多國家在此之後制定人工智能相關戰略的參考對象。2023年1月26日,美國國家标準與技術研究院(NIST)正式釋出了《人工智能風險管理架構》及配套使用手冊,将人工智能相關活動分為應用程式背景、資料和輸入、人工智能模型、任務和輸出四個次元以及“人與地球”四個特殊次元(用以代表作為人工智能背景的人權、社會和地球等更廣泛的福祉),并強調了測試、評估、檢驗和确認在整個生命周期中的重要地位。綜合來看《人工智能風險管理架構》就是從人工智能應用的目的、算法模型、輸入模型的資料、應用産出、環境五個層面衡量人工智能應用的風險。2023年3月29日,由英國科學、創新和技術國務秘書送出議會的政策性檔案《有利于創新的人工智能監管方法》中提到英國人工智能監管架構的基礎性原則包括:安全、安保和穩健性、适當的透明度和解釋、公平、問責制和治理、訴訟的可持續性和補救。該檔案還強調英國将先基于人工智能服務所處的行業進行分類(例如,識别機器表面劃痕的人工智能服務不需要考慮其風險級别,而金融行業的人工智能服務顯然就需要考慮其風險級别),再對可能産生風險的人工智能服務進行風險等級劃分。2023年5月16日,法國資料保護局釋出了《人工智能行動計劃》,檔案強調了法國将從(1)了解人工智能系統如何工作及其對人類的影響;(2)支援并監督隐私友好型人工智能的發展;(3)團結并支援法國和歐洲人工智能生态系統中的創新參與者;(4)審計和控制人工智能系統并保護人員。該檔案重點從人工智能服務訓練資料來源的可靠性、系統本身的可解釋性、可控性等方面考慮,确定不同人工智能系統的風險級别,實作發展與安全并重的分級治理。2023年5月25日,紐西蘭隐私專員辦公室(OPC)釋出了《生成式人工智能(AI)指南》。該檔案指出生成式人工智能可能産生的風險主要包括:(1)生成式人工智能基礎模型所使用的訓練資料可能存在版權或隐私問題;(2)生成式人工智能服務可能會讀取并記錄使用者輸入的資訊,進而産生隐私風險;(3)生成式人工智能服務産生的資訊不一定準确,可能産生逼真的虛假資訊;(4)可能由于生成式人工智能服務本身算法的複雜性,使用者想要向生成式人工智能服務商請求實作其知情權、删除權等權利存在困難。

以經合組織的《人工智能原則》為代表的軟法規範,大多是從一個宏觀層面闡明人工智能服務需要具備的特征,概括成以下三個方面:(1)以人為本的價值、公平、可靠等原則強調人工智能服務基礎模型訓練資料要保質保量,避免出現歧視、非客觀、非公正等倫理問題;(2)透明度、可解釋、穩健性等原則強調人工智能服務算法模型需要置于人的控制之下,每一行代碼都能夠被解釋,進而保證算法生成的結果在可控範圍之内;(3)包容性、可持續性發展、責任導向等原則強調人工智能服務産出的結果以及使用人工智能服務的過程都要置于法律的監管之下,進而兼顧人工智能的發展與安全。

(三)國外生成式人工智能服務相關法律規制對中國立法的啟發

在梳理了國外生成式人工智能服務相關法律規制後,本文認為大陸可以從以下幾個方面進行借鑒:

1.明确生成式人工智能服務範圍

隻有明确生成式人工智能服務的定義,才能明晰生成式人工智能服務的運作涉及哪些要素、可能面臨哪些風險,進而為進一步提出規制生成式人工智能服務的措施提供理論依據。

2.确立生成式人工智能服務的治理原則

法律不能管到社會生産生活的方方面面,尤其是生成式人工智能服務的算法層面。由于算法的複雜性、多變性、黑箱性,法律很難直接規制,此時就需要提取生成式人工智能服務運作的“最大公約數”,确立相應的治理原則,并将其内嵌入算法當中,進而在技術層面避免生成式人工智能服務可能帶來的風險。

3.細化不同風險級别生成式人工智能服務的管理措施

“法律是利益調整的工具,是社會不同利益群體之間的平衡器。在利益平衡理念指引下的法律規則,能夠充分考慮法律調整對象之間的利益均衡”。隻有籠統地規定不可能達到立法目的,發揮法律相應的作用,是以需要細化不同風險級别生成式人工智能的管理措施,明确分級的類别、依據和相應的規制方式。進而平衡不同風險級别生成式人工智能服務的利益,實作整個産業效益的最大化。

五、大陸生成式人工智能服務的法律規制路徑

通過前文對于中國立法現狀不足的梳理,合理借鑒國外相關立法以及吸收現有研究成果優勢,本文認為大陸生成式人工智能服務的法律規制改良需要從以下三個方面進行。

(一)對“生成式人工智能服務”進行明确的法律界定

根據歐盟人工智能法案第3條有關定義,人工智能服務是指“基于機器的系統,旨在以不同程度的自主權運作,并且可以針對明确或隐含的目标生成例如預測、建議或決策等輸出,影響實體或虛拟的環境”。大陸可以将該定義延伸至生成式人工智能服務領域,即将生成式人工智能服務界定為“基于機器的系統,通過分析海量資料和算法優化疊代,以不同程度的自主權運作,針對使用者提示明确或隐含的目标生成例如預測、建議或決策等輸出,影響實體或虛拟的環境”。充分闡明生成式人工智能服務涉及的要素,進而為後續規制生成式人工智能服務可能産生風險做好鋪墊。

(二)明确生成式人工智能服務應當遵守的原則

根據美國相關人工智能服務架構,本文認為大陸應當結合國情,創造性地将相關生成式人工智能服務應當遵守的包括技術向善、技術透明、技術受控等原則内嵌入算法當中,進而抑制技術慣性、避免算法歧視、掌握技術輪舵,使得算法在現代化法制軌道上蓬勃發展。

(三)生成式人工智能服務的分級依據、類别和規制措施

依據歐盟等相關人工智能立法現狀,大陸生成式人工智能服務可以将分級管理措施進一步細化:(1)生成式人工智能服務可以分為禁止級、高風險級、有限風險級、最小風險級四個級别。(2)生成式人工智能服務可以依據基礎模型的資料品質、算法模型的可解釋性、服務本身産生和收集的資訊對經濟社會影響大小和産生風險的可能性三個方面進行分級。(3)對生成式人工智能進行分級後,可以采取禁止投入市場、投入市場需要事前許可和事後備案、投入市場無需許可隻需要備案等方式。不同嚴格程度的規制方式對應不同風險級别的生成式人工智能服務,進而合理的利用司法行政資源使得生成式人工智能服務市場的發展與安全齊頭并進。

本文認為在生成式人工智能服務風險等級的确立上,可以沿用歐盟人工智能法案對于人工智能系統的風險等級四分法,但是出于推進基礎模型發展的需要,僅從原則層面規定基礎模型語料庫的來源,而不做更多的硬性規定,對于算法模型和服務應用端可能産生的風險則應當全部納入風險等級的分類依據内。同時對于風險不可接受的生成式人工智能服務應當禁止投入市場;對于風險較高的生成式人工智能服務應事前審查得到國家有關機關的許可後,方可投入市場;對于風險較低的生成式人工智能服務應在國家有關機關備案後,方可投入市場;對于無風險的生成式人工智能服務應在地方有關機關備案後,方可投入市場。具體而言,建議國家将生成式人工智能服務的分為以下級别:(1)禁止級:産生的内容不符合社會主義核心價值觀,容易造成各種歧視,嚴重損害他人合法權益的生成式人工智能服務,禁止投放市場。(2)高風險級:不生成禁止級可能産生的内容,但人工智能自動生成的算法占算法總比例過高,以至于算法透明度和可靠度較低,或者在服務應用端收集使用者輸入資訊,可能導緻生成結果造成嚴重不良社會影響的生成式人工智能服務,需要得到國家網信辦等國家有關部門授權許可之後方可投入市場。(3)低風險級:不生成禁止級可能産生的内容,雖然存在人工智能自動生成的算法,但占算法總比例不高,不影響算法透明度和可靠度,不太可能導緻生成結果造成嚴重不良社會影響的可能的生成式人工智能服務,需要在國家網信辦等國家有關部門備案之後方可投入市場。(4)安全級:不生成禁止級可能産生的内容,不存在人工智能自動生成的算法的生成式人工智能服務,需要在省級網信辦等地方有關部門備案之後方可投入市場。

結語

生成式人工智能服務由于涉及海量資料的收集、利用、輸出以及複雜算法的應用,在給社會生産生活帶來極大便利的同時,也帶來的很多方面的風險。本文通過對國内外立法現狀以及現有研究成果的梳理總結後,提出了明确生成式人工智能服務範疇、确立生成式人工智能相關原則、細化基于風險的分級管理措施等建議。未來還需要有關部門在結合基本國情的基礎上,充分吸收國内外立法經驗和研究成果,兼顧發展與安全,推動生成式人工智能服務産業在法治軌道上蓬勃發展。

吳大奎|基于生成式人工智能服務風險的分級法律規制研究

繼續閱讀