天天看點

AIGC觀察丨生成式人工智能應用風險治理的理論誤區與路徑轉向

作者:網際網路法律評論
AIGC觀察丨生成式人工智能應用風險治理的理論誤區與路徑轉向

【編者按】ChatGPT的強大功能引緻了新一輪的技術風險擔憂,這些風險無一不讓學者們重新審視現有立法體系與人工智能技術風險之間的比對性。

《網際網路法律評論》特約專家、北京航天航空大學法學院副教授趙精武認為,部分學者以新型風險為由主張對人工智能技術進行特别立法, 這種治理誤區乃是風險類型與風險程度兩個概念混同所緻,現階段回應ChatGPT濫用風險的關鍵在于提供一種兼顧倫理、技術和法律的治理架構。

本文原載于《荊楚法學》2023年第3期,《網際網路法律評論》獲作者授權刊載。

AIGC觀察丨生成式人工智能應用風險治理的理論誤區與路徑轉向

一、問題的提出

ChatGPT的橫空出世改變了市場對于人工智能技術發展以及應用前景的認知,緊随其後的GPT-4更是讓“人工智能産品是否取代人類工作”這一科幻小說式的問題成為社會焦點。盡管國内外市場早就存在類似的人工智能産品和應用(如智能客服、智能投顧等),但是現有的産品和應用大多依賴預設的業務流程完成單一且重複的工作内容。與之相比,由OpenAI公司研發的ChatGPT則展現出更高的智能化水準:或是根據使用者需求,完成部分代碼編寫;或是依據輸入端的資訊,自動生成具有一定情節和文筆的小說、詩歌;抑或是短時間内生成同質不重樣的商業營銷文案等。這些功能遠遠不是現有産品所能夠比拟的,ChatGPT作為一款人工智能聊天機器人,即便無法保證輸出結果的準确率,但其能夠以最貼近人類思維和語言表達的方式呈現輸出結果,并讓使用者對其輸出結果深信不疑。不過,ChatGPT作為人工智能技術的前沿應用,同樣無法擺脫技術創新所同步産生的技術風險,其遠超市場預期的功能讓立法者和監管機構都産生了深刻的擔憂。總結目前學界對于ChatGPT技術風險的評估與預測,風險類型大緻包括資料安全、網絡輿情威脅、算法歧視、個人資訊洩露、知識産權侵權、誘發網絡犯罪、技術壟斷以及侵蝕教育體系等。以網絡輿情威脅為例,ChatGPT屬于生成型預訓練變換模型,能夠基于事前的資料輸入生成相應的文本資訊,而一旦被應用于網絡謠言資訊的生成,則能夠以完整的論證邏輯和貼近人類表達的形式迷惑使用者群體,更加難以甄别網絡謠言資訊,并且這些資訊能夠實作規模化的“一鍵生成”。

不過,前述提及的技術風險大多還是停留于猜想和假設階段,尚未實際發生,關于這些風險的發生機率同樣未有定論。在此種背景下,不少學者基于前瞻性和預測性的立場,開始探讨ChatGPT應用的治理理論和監管模式。其中最為典型的一種觀點是鑒于ChatGPT、GPT-4所展現出的強大功能及其潛在的巨大安全風險,主張通過專門的人工智能立法解決現階段以及未來可能發生的技術風險,但卻始終未能言明專門立法所需要解決的調整對象、基本原則以及責任體系等問題。這種立法論主張在人工智能技術應用領域頗為常見,也确實能夠在一定程度上實作預防風險和規範技術應用的治理目标。不過,面對人工智能技術風險,“風險立法論”是否屬于當下最佳的治理方案仍存有疑義,更重要的是,人工智能産業尚處于發展階段,過早地進行整體性的産業規範可能存在“超前規制”之嫌。是以,除了“風險立法論”之外,是否還存在解決ChatGPT背後新興技術風險的其他治理方案顯然成為目前值得審視的關鍵問題。

AIGC觀察丨生成式人工智能應用風險治理的理論誤區與路徑轉向

二、ChatGPT治理誤區的澄清:全新風險尚未産生

(一)“新興風險治理之必要”的理論不足與邏輯缺陷

以ChatGPT為代表的生成式人工智能技術确實産生了新型的社會治理風險,但新風險并不必然等于需要新立法,因為這些新風險本質上并沒有徹底改變既有的法律關系,同樣也沒有突破現有法律規範的調整範圍。以此為由要求在立法層面回應ChatGPT帶來的新型風險存在三個層面的理論不足:

第一,以ChatGPT作為調整對象顯然超出了法律的規範邏輯,換言之,特定的技術産品或服務難以歸至法律的調整對象,法律也沒有必要專門針對一項産品或服務作出具體規定。盡管在數字時代,法學研究方式和研究視角的創新對于解決新興技術風險至關重要,但需要明确的是,法律的調整對象始終是以特定的法律關系為限,而不是某一項技術、業态乃至具體的應用産品。倘若以合理恰當的方式應用生成式人工智能技術,并不會導緻學者們所擔憂的各類技術風險;相對地,生成式人工智能技術被應用于資料竊取、網絡犯罪等活動,技術風險自然會接踵而至。是以,現行立法對于技術風險防範的重心仍然是具體的技術應用行為及其背後的行為主體,不能因為風險類型的“新”而将技術治理和法律規制兩個概念予以混同。

第二,現有立法足以回應現階段ChatGPT所産生的各類風險。風險立法論解決風險的前置性條件是現行立法無法預防和解決新興風險,但現實情況是,生成式人工智能技術引發技術風險的作用邏輯并沒有超過現行立法的調整範疇。近期公布的《生成式人工智能服務管理辦法(征求意見稿)》并非完全是以新興風險治理作為立法事由,而是為之後人工智能技術治理規則體系化進行制度積累。如歐盟資料保護委員會在探讨了意大利資料保護機構針對ChaGPT服務所采取的執法活動後決定成立特别工作組,探索制定人工智能監管的通用政策。從算法推送、深度合成到生成式人工治理的立法舉措來看,人工智能領域的立法思路是以領域化、場景化的技術應用為現實依據,重視各個應用模式下的法律關系變化,該征求意見稿的内容便是最好的例證:義務規範仍然是以既有的治理規則為核心,但規範邏輯卻是将算法安全拆解為資料安全、算力資源安全、算法模型安全等諸多内容。

在資料安全領域,最受關注的風險類型是使用者在輸入涉及到商業秘密、個人隐私等資料之後,ChatGPT等将這些資料留存,增加資料洩露的風險。同時,在國家安全層面,境外生成式人工智能産品可能成為核心資料和重要資料竊取的“隐秘出口”。即便ChatGPT的開發者是境外的Open AI公司,但是其業務活動可能出現《資料安全法》第2條所提及的“境外開展資料處理活動,且損害國家安全、公共利益或公民、組織合法權益的”情形,故而《資料安全法》所規定的資料跨境傳輸、資料安全審查等制度依然可以适用于該領域。在網絡犯罪領域,ChatGPT等産品并不會直接導緻新型犯罪行為,而是屬于“犯罪工具”,《刑法》足以預防和懲戒生成式人工智能技術濫用導緻的犯罪行為。

第三,以風險立法論解決ChatGPT濫用産生的新型技術風險可能會陷入“技術規制法”的邏輯誤區。審視近些年學者們所主張的“加速立法程序”“建構配套制度”等主張,有關法律回應技術風險的基本立場逐漸呈現“每一項新型技術都會導緻新型風險,而新型風險需要全新的法律制度予以解決”之傾向。誠然,《網絡安全法》《資料安全法》等立法活動确實是數字時代網絡法治體系建構的必然結果,但時至今日,無論是從網絡安全和資料安全治理架構,還是從具體技術應用規範,大陸網絡法治體系已經全面涵蓋各類技術風險。在此種背景下,繼續強調以風險立法論解決技術風險顯然會導緻重複立法、超前立法等立法資源浪費的問題。歸根結底,ChatGPT的出現改變了人工智能産業格局,但并沒有實質性變更該領域的法律關系。更确切地說,以新型風險作為立法基礎的論證邏輯忽視了法律與技術之間從脫節狀态到趨于穩定狀态之間的變化,這種理論誤區也與未來人工智能技術體系化立法的趨勢格格不入,因為這些“新型”風險各自具有獨立性,在邏輯上無法進行體系整合。

(二)誤區成因:風險程度與風險類型的觀念混淆

以風險立法論解決ChatGPT濫用技術風險并不是新近出現的學術思潮,而是伴随着人工智能、元宇宙、自動駕駛等新興技術概念被頻繁創設之後産生的,直接原因是内在體系趨于穩定的法律與高速疊代創新的技術實踐之間産生脫節,部分學者在發現置于現行立法體系下無法預防這些技術風險乃至填補實際的經濟損失後,基于“出現立法時未能預見的全新風險”作為特别立法的現實依據,以此解決各類技術風險。當然,諸如網絡安全漏洞治理、資料洩露風險預防、算法推薦服務行為規範等領域的立法活動是“風險立法論”在實踐中的最佳典範,然而,并不是所有的立法活動均是以新型風險産生作為立法之必要事由,尤其是在人工智能技術風險治理領域。ChatGPT等生成式人工智能技術應用的相關風險評估本質上還是以潛在的技術濫用行為作為評估對象,并且從評估結果來看,這些技術風險在因果關系、權益侵害類型以及免責事由等方面表現出唯一性。以最常提及的三類技術風險為例:在資料洩露風險層面,資料安全保護義務的履行主體依然是作為資料處理者的AI技術研發者或營運者,導緻資料洩露的原因是研發者或營運者擅自收集使用者輸入的資料或未能采取恰當的資料安全技術保障措施。在著作權侵權風險層面,以人工智能技術作為侵權主體或拟制為侵權主體明顯與大陸《民法典》所規定的“民事法律主體”範疇相悖,故而實際的責任主體仍然是AI技術的研發者或營運者。至于AI産品所采用的訓練資料集合是否可能存在侵權風險,這一問題實際上在AIGC技術風險防範乃至算法應用治理領域早已有之,ChatGPT濫用導緻的著作權侵權風險本質上還是屬于已知風險的探讨範疇。在加劇網絡犯罪風險層面,ChatGPT終究隻能作為實施犯罪行為的輔助工具,罪名的認定并不會因為行為人使用ChatGPT而發生變化,因為無論犯罪構成要件采用三要件說還是四要件說,ChatGPT僅僅是在“社會危害性”“情節輕重”等層面産生影響,并不會單獨創造獨立的罪名。是以,基于ChatGPT濫用産生新型社會風險而主張立法規制難以自證其理,審視這些所謂的“新型社會風險”,風險立法論誤區的成因在于部分學者誤将技術風險程度的變化與技術風險類型的增加予以混淆。濫用ChatGPT的直接結果是加劇安全事件的發生機率或一旦發生之後的損害程度,本質上是對已有風險類型及其損害後果的程度提升,這也使得ChatGPT濫用風險的治理依據還是以《網絡安全法》《資料安全法》《網絡資訊内容生态治理規定》《網際網路資訊服務算法推薦服務管理規定》等法律法規為核心。通常而言,新型技術風險的認定是以新興權益的侵害、異化的因果關系以及新型的法律關系為前置性要件,但ChatGPT濫用風險并未涉及到這些要件。并且與其他人工智能技術應用相比,ChatGPT濫用風險的特殊性主要表現為以近乎人類邏輯的方式解決問題,這種技術層面的特殊性與法律層面的風險特殊性不可相提并論,資料安全風險、網絡犯罪風險等技術風險同樣存在于深度合成應用、自動化算法推薦服務乃至智能客服、智能投顧等。

(三)ChatGPT風險治理的誤區澄清:從“風險立法”到“體系立法”

否定風險立法論在ChatGPT風險治理領域的恰當性并不簡單等同于完全否認立法在風險治理領域的重要作用,而是意在澄清三個立場:一是看似人工智能産業已經取得實質性突破,但人工智能技術應用規範的條款體量、制度架構以及責任認定等均未具備滿足單行法的立法需求,理想中的立法邏輯應當以技術應用分類機制為起點,補全各類人工智能技術應用的義務規範,在法律實施與技術應用趨于成熟穩定之後,再将這些義務規範予以整合,形成通用型的人工智能技術治理規則。未來不同應用程式會選擇接入類似ChatGPT的人工智能,進而提升工作效率和服務品質。這種“接口式”的業務模式恰恰說明ChatGPT濫用風險在生成邏輯上還是以具體應用場景為實際導向,而實踐中大陸也是分别針對算法推薦服務、深度合成算法等特定業務模式和應用場景頒布了《網際網路資訊服務深度合成管理規定》《網際網路資訊服務算法推薦服務管理規定》。更重要的是,人工智能技術的疊代周期持續縮短,立法者也不可能精準預測到未來人工智能的技術形态,故而針對生成式人工智能應用進行規範的理由不是産生了新型技術風險,而是在目前的技術發展階段需要通過場景化立法作為技術治理的過渡方案。二是否定風險立法論不等于否定以單獨的産業保障機制推動人工智能技術創新發展,這是因為風險治理與産業促進兩種不同的立法導向對應着不同的立法内容。以風險治理為導向的單行立法更側重研發者、使用者以及使用者的禁止性義務,通過預設違法違規的技術濫用行為類型預防潛在的安全風險。以産業保障為導向的單行立法更側重監管機構應當提供的産業保障政策和創新促進服務,如算力資源的統籌規劃、配套數字基礎設施的建設等。三是否定以風險立法論意在重新厘清專門規範生成式人工智能技術應用的正當性基礎。在過去大資料、雲計算、區塊鍊等資訊技術風險治理活動中,确實滿足了部分風險治理的需求,但其制度背景在于個人資訊保護、資料安全等相關法律法規尚未制定,彼時的專門條款和單行立法是填補立法空白的最有效路徑。時至今日,人臉識别、深度合成、個性推薦等涉及到人工智能技術的行政法規、部門規章早已有之,針對生成式人工智能進行單行立法的理由應當包括兩個方面:一是降低企業業務合規成本,細化既有義務的履行方式,提供更為明确的行為指引;二是現有的單行立法屬于人工智能技術治理領域不可回避的“過渡方案”,在人工智能技術應用場景和應用方式相對固定的階段,則需要将這些單行立法予以整合,形成資料、算法、算力等層面的基本原則。

總結而言,“風險立法論”這一治理誤區始終是将一項單獨的技術産品及其風險作為新型的治理對象,忽視了大陸已有立法始終是以具體應用場景和應用方式為基礎。從國外立法來看,立法者、監管機構均早已關注到人工智能的技術濫用風險,但始終遲遲未能推進人工智能領域的體系化立法,原因之一正是該項技術的更新疊代速度遠超立法者預期。歐盟委員會在2021年4月就釋出了《關于制定人工智能統一規則》的立法提案,但經過數次讨論并形成該提案四個版本之後,才在2022年12月達成該提案最終版的折中草案。并且,其修訂内容并沒有嘗試建構一個普适性的人工智能技術應用監管規則,而是按照對權益的風險程度将人工智能系統劃分為“禁止、高風險和非高風險”三類,并在此基礎上針對深度僞造、健康保險、軍事防禦等特定應用場景提出相應的監管要求。是以,ChatGPT風險的治理邏輯更應當回歸到架構性的治理理論和治理架構的建構,而非将同質性的技術風險僵硬地作為治理目标和治理需求。

AIGC觀察丨生成式人工智能應用風險治理的理論誤區與路徑轉向

三、ChatGPT現象背後的AI治理要素

(一)ChatGPT濫用風險治理的兩種路徑:科技倫理與科技立法

在有關人工智能技術風險治理領域,國内外學術觀點存在明顯差異:國外學者普遍傾向以科技倫理或者軟法治理模式回應人工智能技術的不利影響,而國内學者則習慣于訴諸立法解決損害結果、發生機率均不确定的技術風險。造成這一現象的原因除了國内外法律制度環境在倫理規則層面的差異化定位之外,還表現為技術風險治理目标的差異性。

對于歐美學者而言,人工智能技術風險的關鍵點在于“算法黑箱”,雖然在技術領域存在“算法黑箱是一個僞命題”的說法,但是GPT-4所依賴的人工智能大型語言模型(LLM)則将以往公開透明的資料處理流程以及決策過程再度隐藏,“生成式AI的對話模型在技術系統内部的運作方式也不透明”。在數字倫理學學者Floridi教授看來,ChatGPT所引發的問題在于人工智能技術正在将“權力”從決策結論的作出前置于對決策問題的控制,即“誰控制了問題,誰就控制了答案,誰控制了答案,誰就控制了現實”。在法律層面,這種控制能力恰恰是法律責任認定的關鍵環節:倘若使用者濫用生成式人工智能産品,作為“問題的控制人”,顯然應當對輸出端的損害事實承擔法律責任;倘若使用者正常使用但因營運者的原因導緻輸出具有侵權風險的結構,那麼此時的“問題的控制人”不再是使用者,而是營運者。前者自無争議,後者卻因算法黑箱問題而存在法律因果關系中斷的可能性。即便以“危險制造者”的定位作為營運者承擔侵權責任的正當性依據,但也有可能會陷入“所有的技術風險都應當由技術研發者和營運者承擔”的謬誤之中。而這正是部分國外學者希冀以科技倫了解決技術風險的原因之一,即法律幹預技術創新風險的方式終究有限,而借由科技倫理可以從人工智能技術研發和應用之初就提出相應的監管要求,可以靈活地适用于不同場景、不同業态下的人工智能應用,不至于阻礙人工智能産業的技術創新,并且這種科技倫理也可通過義務性條款從純粹的道德規範轉變為具有強制效力的法定義務。

對于國内學者而言,單純的道德規範因缺乏強制性而無法確定企業履行法定義務,故而更傾向于将科技倫理規則視為算法安全審計機制的組成部分,這也是部分學者所主張的“軟法之治”。這種治理觀點似乎與國外學者殊途同歸,但不同的是,科技倫理規則不過是ChatGPT風險治理的路徑之一,實際的治理理論重心仍然是研發者與營運者的義務内容,而國外學者則将科技倫理規則作為ChatGPT風險治理的核心路徑,意圖建構更為長遠的行業監管标準。這兩種治理路徑實際上反映了國内外對于人工智能産業的兩種監管立場:國外通過科技倫理規則意圖為技術創新和産業發展預留探索空間,國内則通過強制性規範在事前階段預防難以事後救濟的技術風險,并通過義務規範明确技術應用的合法性邊界,以此實作産業發展的良性引導。

客觀而言,兩種治理路徑之間的差異僅僅表現為科技倫理與科技立法孰者優先。在科技倫理無力回應日趨顯著的技術風險時,美國國會先後提出《人工智能政府法案》(Artificial Intelligence Government Act)、《國家人工智能倡議法案》(National Artificial Intelligence Initiative Act)、《生成人工智能網絡安全法案》(Generating Artificial Intelligence Networking SecurityAct)等立法提案,歐盟則試圖嘗試制定歐盟單一數字市場層面的人工智能法案。相對地,大陸在制定算法推薦服務、個人資訊保護、深度合成算法等相關法律法規的過程中,立法者也逐漸注意到科技倫理以基本原則的形式在立法檔案中的功能作用,如何細化科技倫理的具體内容和特殊定位也成為了當下人工智能技術風險治理的重要議題之一。

(二)科技倫理在ChatGPT風險治理領域的功能定位

ChatGPT以及GPT-4的技術創新對現有立法調整技術濫用風險提出了新的挑戰,但立法者不可能總在技術創新之處就創設具有預見性的義務規範,而以公平正義等法律價值為核心的科技倫理則能夠以行業規範的形式限制研發者以更為合理的方式進行技術應用。大陸《網際網路資訊服務算法推薦管理規定》第7條就提及了服務提供者應當建立健全科技倫理審查機制,但對于科技倫理的基本内涵以及重點審查事項卻未能予以明确,這也是科技倫理在風險治理領域的理論困局:倘若以籠統寬泛的法律價值作為基本内容,科技倫理則缺乏必要的可操作性,且與一般的倫理規則并無本質差別;倘若以具體明确的價值标準作為基本内容,科技倫理則會喪失應對未來不可預見技術風險的靈活适用性。

事實上,在人工智能發展初期,國外就已經開始了科技倫理規則的探索,如歐盟議會法律事務委員會(JURI)2016年5月釋出《就機器人民事法律規則向歐盟委員會提出立法建議的報告草案》(Draft Report with Recommendations to the Commission on Civil LawRules on Robotics),主張歐盟委員會應當盡早對人工智能技術風險進行評估。歐洲經濟與社會委員會(EESC)則在2017年5月釋出關于AI的意見,認為應當制定AI倫理規範和監控認證的标準系統。彼時的歐盟委員會并未對此作出過多的回應,但随着深度合成等人工智能産品展現出越發強大的功能,歐盟選擇在2019年4月釋出《可信AI倫理指南》(Ethics Guidelines for Trustworthy AI)和《算法責任與透明治理架構》(A governance framework for algorithmic accountability and transparency)。其中,《可信AI倫理指南》将“尊重人類自主性”“預防損害原則”“公平原則”以及“可解釋原則”作為可信AI應當遵循的科技倫理原則,但這些原則并非是單純的倫理要求,歐盟在該指南中還以“人類的能動性和監督”“技術穩健型和安全”“隐私和資料治理”“透明性”“多樣性、非歧視性和公平”“社會和環境福祉”以及“問責制”七項關鍵内容作為企業履行倫理規則的具體要求。如“透明性”要求企業不僅能夠確定AI決策過程和結果的可追溯性,訓練算法模型的資料集合同樣應當具備可追溯性。此外,該指南還提出了涉及從資料收集、初始設計階段以及資訊系統開發、算法模型訓練以及實際應用模式等多個環節的可信AI評估流程。由此觀之,歐盟的人工智能科技倫理治理模式并不是單純停留于簡單的倫理倡議,而是借由“基本原則—關鍵事項—可信AI評估”這一架構将科技倫理作為監管标準之一,即便不具有強制效力,也能夠使監管機構的執法活動成為企業業務合規的重點内容。

此外,面對ChatGPT等人工智能應用産生的新興技術風險,域外各國也紛紛開啟了科技倫理治理路徑(參見下表),其内容在倫理目标層面具有相似性,均是以公共利益和人類尊嚴為基礎,不過部分國家囿于技術創新的考量,僅僅是在倫理規範層面提出相應的道德标準。大陸也在2022年3月釋出《關于加強科技倫理治理的意見》,并将“增進人類福祉”“尊重生命權利”“堅持公平公正”“合理控制風險”“保持公開透明”作為五項核心原則,并提出建立科技倫理審查和監管制度。從現行立法體系來看,此種科技倫理治理模式在法治層面的轉化路徑或可比照域外模式,借由法律解釋、行業标準的方式轉化為具體的業務評估流程,以此增強科技倫理在人工智能技術風險治理的實際效果。

AIGC觀察丨生成式人工智能應用風險治理的理論誤區與路徑轉向

(三)治理架構下科技倫理的轉化:算法安全原則

在人工智能領域,科技倫理的功能定位顯然不能僅以生成道德規範或職業道德為限,更應當與大陸現行立法予以體系化銜接,将社會公共利益、尊重人類尊嚴等基本内容轉化為人工智能技術風險的治理原則與治理體系。《民法典》《刑法》等法律的基本原則因其包含了公平正義等法律價值,毋庸置疑地可以适用于生成型人工智能技術領域。不過,這種基本原則也因為内涵的籠統抽象和缺乏行業針對性,難以直接作用于人工智能領域。是以,首先需要明确的是專門适用于人工智能技術治理領域的科技倫理内容以及該項科技倫理與現有規則的銜接路徑。

比較國内外人工智能治理模式,或是嵌套資料安全保護制度,要求服務提供者對算法輸入端的資料以及訓練資料集合承擔資料安全保障義務,或是直接以算法應用行為作為治理對象,明确人工智能所依賴的算法模型不應當以侵害使用者合法權益為代表,抑或是以資訊系統安全為治理目标,要求人工智能資訊系統滿足網絡安全保障的基本要求。盡管這些具體治理路徑存在差異性,但均強調了“算法安全”這一科技倫理内涵,這與大陸《網際網路資訊服務算法推薦服務管理規定》第7條規定的“算法安全主體責任”相契合。需要說明的是,科技倫理層面和法律層面的“算法安全”具有一定的差異性:廣義解釋科技倫理層面的“算法安全原則”是指,算法的研發與應用不應當對人類尊嚴和基本權利造成威脅或實質性損害,具體包含技術安全原則、算力資源安全原則和個體權利保障原則三項内容。技術安全原則是指依賴算法的資訊系統應當滿足應用場景和相關行業的技術安全标準,具備及時修複安全漏洞和功能恢複的技能能力。算力資源安全原則是指在推動人工智能和算法技術創新的過程中應當合理配置設定和使用算力資源,不得以不恰當的方式限制他人合理使用算力資源。個體權利保障原則是指算法應用的方式不應當造成個體權利的減損,不得侵害人類尊嚴和自由。與倫理層面強調“技術”“算力”和“權利”三個層面的安全狀态相比,法律層面的算法安全主體責任則是指向更為具體的法律責任。進一步而言,法律層面的算法安全主要包括算法透明義務、算法公平義務、算法知情義務、資料安全保障義務以及技術安全保障義務等内容,而這些義務的設定歸根結底是促成兩種立法目标的實作:一是保障個體的合法權益,禁止人工智能和算法技術應用以自動化推送、深度合成乃至使用者畫像等形式降低個體權利的保障水準。二是預防算法濫用風險的發生,借由事前的義務履行達成技術風險的安全評估效果,從内部管理制度、安全漏洞以及監測預警等制度剔除或降低潛在的風險要素。

兩相比較之下,人工智能領域的科技倫理應當是以算法安全原則的形式存在。原因在于所謂的“算法安全”正如前文所提及的一種理想化的人工智能技術應用狀态,并非狹義上的技術安全和“零風險”,而是一種類似歐盟模式的“可信”狀态,即技術風險的有效預防和個體權利的全面保障。在此種“算法安全”科技倫理内涵的基礎上,更需要在制度層面提供能夠與之銜接的實施機制,以此達成風險預防、權利保障這一相同目标。

AIGC觀察丨生成式人工智能應用風險治理的理論誤區與路徑轉向

四、ChatGPT現象背後的AI治理架構:以安全風險評估為架構

(一)算法安全原則與算法安全責任體系的銜接

在人工智能領域,科技倫理層面算法安全原則提供的是一種原則性行為指引,立法者并不可能事無巨細地預見到所有可能的技術創新路徑,故而需要算法安全原則在人工智能技術應用領域進行寬泛意義上的風險預防。當然,這種風險預防功能的實作還是以技術研發階段和應用部署階段的行業規範或者行業慣例為依托,并不具有直接的法律效力,在科技倫理與科技立法之間,仍然需要以風險預防作為銜接要件,将科技倫理層面算法安全原則轉換為具體的算法安全保障義務。鑒于大陸網絡安全治理是以事前的安全風險評估并采取相應的安全保障措施為基本邏輯,故而不妨考慮借由算法安全評估機制容納算法安全原則的基本内容,既不至于在人工智能技術尚處高速創新階段過早地設定禁止性條款,也能夠保障人工智能技術濫用風險得以通過具體的風險評估事項予以最大程度地緩解。美國國家電信和資訊管理局(NTIA)已經開始探索用以支撐人工智能審計、評估、認證和其他機制建構的政策舉措,并将建構可信人工智能系統作為目标。具體而言,以算法安全評估機制作為算法安全原則與算法安全責任體系的銜接路徑,其可行性主要表現為三個方面:

一是科技倫理與主體責任在治理方式上具有一緻性,兩者均是以風險預防與應對作為作用機制。科技倫理層面的技術風險預防更強調的是法益層面的人格尊嚴與基本權利,人工智能技術的研發過程以及應用方式不應當限制人類的自由發展。主體責任的設定則是面向更為具體的風險因子,算法審計、算法公示與說明、算法公平等相關義務對應的是算法濫用風險、侵害使用者知情權和公平交易權等技術風險與侵權風險。但是,無論是算法安全原則,還是主體責任體系,所能夠分散的風險範圍和程度受到自身治理模式的限制,通過設定算法安全評估架構可以在全流程風險治理層面實作更為有效的風險預防效果。

二是以算法安全評估機制銜接算法安全原則與算法安全責任體系具有可操作性。從現階段來看,ChatGPT的技術疊代并不止于GPT-4,可以合理預見未來更為強大的GPT-5出現,故而過早增設具體義務或者增加專門條款可能并不是一個理想方案。算法安全評估機制所包含的評估邏輯既包括義務主體是否履行法定義務,還包括義務主體的行為方式是否符合算法安全的一般要求。即便出現了現行立法無法涵蓋的新型技術風險,也可通過倫理風險評估邏輯予以分散。更重要的是,該類評估邏輯被内嵌至算法安全評估機制并轉化為廣義上的算法安全保障義務,義務主體怠于履行倫理風險評估則會當然地承擔法律責任。

三是算法安全評估機制是以安全風險評估為正當性基礎,能夠與《網絡安全法》《資料安全法》中提及的網絡安全風險評估和資料安全評估機制形成體系化關系,《國家安全法》中“總體安全觀”之内涵得以适當拓展。一方面,網絡安全與算法安全屬于兩個截然不同的治理目标,算法安全強調的是人工智能應用(個體産品)的技術安全,而網絡安全則強調全局性網絡通信功能穩定與保密,以及能夠在受到網絡攻擊之後快速恢複基礎功能的能力。是以,網絡安全的實作實際上需要個體層面的算法安全保障。另一方面,資料安全與算法安全屬于部分内容交叉重疊的關系。在探讨人工智能技術風險的過程中,學者們最常擔憂的是算法訓練資料集合和輸入資料的安全性,這一層面的算法安全實際上就是資料安全中的“以最小必要的方式收集資料”和“以安全可靠的方式存儲資料”兩項内容。同樣地,算法安全的實作意味着在算法應用環節的資料安全目标業已達成,但是其他環節的資料安全保障義務并不能視為已經履行完畢。

(二)算法安全評估機制的建構

全國資訊安全标準化技術委員會在2021年8月就已經公布了《資訊安全技術機器學習算法安全評估規範(征求意見稿)》,用以明确相關企業針對算法安全的技術性評估名額,包括保密性、完整性、可用性、可控性、魯棒性、隐私性等技術屬性,并按照業務流程将安全風險歸類為算法、資料和環境三個層面。不過由于該征求意見稿屬于技術标準,故而風險評估流程和評估事項仍然是以技術性名額為主,并未專門提及科技倫理層面的算法安全内容。此外,科技部在2023年4月也釋出了《科技倫理審查辦法(試行)(征求意見稿)》,但該辦法所建構的科技倫理審查機制是基于審查委員會獨立機構的第三方評估和審查,也未曾涉及到企業自身的評估事項和評估流程。而中國電子技術标準化研究院則在同月釋出了《人工智能倫理治理标準化指南》,圍繞人工智能全生命周期,從資料、算法、系統(決策方式)和人為因素等四個方面識别倫理風險來源。鑒于此種制度現狀,算法安全評估機制的建構路徑應當包含自評估和他評估兩個層面的内容,他評估包括科技倫理審查、國家安全審查等現有審查和評估機制,達成風險預防的外部控制效果,而自評估則是大陸下一階段所要重點明确的内容。除了以行業技術标準、算法安全主體責任為關鍵内容之外,還需要将算法安全原則轉變為具體的評估标準和評估流程,達成技術、倫理和法律三個層面的風險自控架構。需要澄清的是,算法安全評估機制實際上是一個具有動态性、場景化和靈活性的評估模式,重要的不是義務主體是否按部就班地履行所有的評估流程,而是義務主體是否采用了符合安全風險控制的評估措施。換言之,在制度層面,更建議以法律解釋的方式判斷義務主體使用人工智能技術的行為是否符合倫理與法律兩個層面的算法安全概念。不過,從全流程風險控制邏輯來看,義務主體的算法安全評估機制至少應當包含從研發過程、使用執行個體到系統維護更新等各個環節的風險評估,或可考慮按照下列五個環節進行算法安全風險評估:

AIGC觀察丨生成式人工智能應用風險治理的理論誤區與路徑轉向

第一,對人工智能技術應用執行個體進行定義,明确人工智能資訊系統的技術架構、部署場景、運作環境、操作權限等事項。在實踐中,安全風險的存在形式以及作用機制受到諸多因素的影響,在進行系統性風險評估之前,首先需要明确的是人工智能技術具體的應用環境和應用場景,以便為之後的風險評估流程指引潛在的風險因子。這裡的“應用執行個體”包括“描述應用執行個體的用途”“人工智能技術應用的具體場景”“人工智能資訊系統及其子系統、接口、應用程式、安全性等”。

第二,明确人工智能資訊系統和應用模式的評估邊界。安全風險的評估不僅僅是針對特定個體的風險水準評估,也是針對特定資訊系統、特定客體的風險水準評估。倘若要求義務主體對人工智能技術應用的所有事項和所有系統進行評估,那麼這與現行的網絡安全審查、資料安全審查并無本質差別,更何況這些安全審查同樣存在清晰的審查邊界。這裡的“評估邊界”是指“人工智能研發機構獨立應用”“接口式合作的人工智能技術應用”以及“公共領域人工智能技術應用”等應用路徑。因為在自評估流程,評估事項、評估流程以及風險分析需要結合是否存在第三方業務合作以及是否應用于公共服務領域而有所差異。如果第三方所提供的資訊服務涉及到人工智能系統的核心元件,那麼對于第三方的風險評估将會成為算法安全評估的重點内容。如果第三方僅僅是以提供訓練資料集合、算法安全檢測等服務模式進行業務合作,那麼算法安全評估僅需涉及到資料來源合法、具備相應檢測資質等單一事項即可。

第三,明确技術風險預防和分散的安全需求。科技倫理層面的算法安全原則得不到廣泛重視的一個客觀原因是其内涵和外延相對寬泛,難以成為具體的義務履行标準。是以,在算法安全評估流程中,需要将算法安全原則轉化為一般層面的安全需求和業務層面的安全标準。後者由強制性義務和安全技術标準予以明确即可,而前者則需要基于前兩個環節的“場景限定”進行細化,也就是從人工智能資訊系統元素和業務連接配接元素明确安全需求。一是在使用者裝置層面,義務主體需要對使用者裝置(尤其是智能裝置)的安全風險、安全漏洞進行事前評估,明确企業裝置管理架構下端點安全的基本目标。二是在接口開放層面,義務主體需要對使用其接口的第三方進行場景評估,即預評估是否存在不适合開放的行業應用場景,同時還需要評估接口層面可能存在的資料安全風險。三是在網絡運作環境層面,明确人工智能資訊系統的使用者身份認證、資料傳輸、使用者資料管理、安全管理業務流程等基本功能的安全水準,尤其是對人工智能資訊系統所處的網絡運作環境、系統內建環境進行安全需求分析。

第四,評估資料、算法以及基礎設施安全風險威脅和實際風險水準。在資料安全風險層面,評估範圍僅以算法模型與人工智能系統功能實作需要的資料集合為限,重點評估資料存儲環節的風險水準,可将《個人資訊保護法》《資料安全法》中的基本原則和法定義務履行作為風險水準和實際控制效果的評估标準。在算法模型安全層面,重點評估事項包括訓練資料集合是否被污染、算法模型是否可以解釋、算法決策結果是否會影響到實際權利、算法模型是否存在安全漏洞、算法模型的創設目标和應用場景是否違背社會科技倫理規範等事項。在基礎設施安全層面,評估事項包括網絡運作環境是否安全,算力基礎設施的安全性、穩定性以及彈性,系統元件是否安全可靠,操作權限是否存在安全可靠等,具體的評估标準則可按照相關行業技術标準進行量化評估。

第五,評估内部安全管理制度的實施情況。上個環節主要評估的是資訊系統層面的安全風險,而該環節則是為了盡可能消除具有人為因素的風險事件。一是評估内部研發人員、管理人員的科技倫理認知水準和職業道德,判斷私自篡改資訊系統背景資料、擅自攜帶使用者資料等風險事件的可能性;二是評估内部管理制度的實施情況和實施效果,這裡的“内部管理制度”主要包括資訊系統通路權限、背景資料保密流程、科技倫理自審查、安全責任人、系統安全内測、應急響應機制、安全整改機制等内容;三是評估風險評估必要性,除了定期風險評估之外,還需要對算法安全評估流程的合理性進行改良,確定風險自評估事項能夠與人工智能技術創新前沿保持同步發展。

結語

科技創新疊代周期正在持續縮短,相應的技術風險類型同樣發生變化。面對ChatGPT等人工智能産業創新實踐,“風險立法論”雖然可以一勞永逸地解決當下以及未來可能導緻的侵權事件,但“因風險而立法”并非是現階段人工智能技術風險治理的正當性基礎,這種邏輯隻會讓立法陷入“一個技術創新對應新型風險,新型風險對應一次專門立法”的誤區。在大陸人工智能法治體系步入新階段的當下,“更迫切的治理需求是如何引導企業、個人合理使用人工智能技術及其産品。”事實上,大陸也越發重視科技倫理理論和科技倫理審查機制的功能定位,背後的原因也是為了平衡技術創新與風險預防之間的内在沖突。在數字時代,技術風險早已無法按照過去觀念中的技術更新、漏洞更新檔等方式予以預防和化解,同樣也不是單純僅以義務性規範即可完成行業層面的風險可控,而是需要轉型至包含科技倫理、義務規範以及技術标準等内容的風險治理架構之下,從應用場景、系統環境、内部管理流程、技術可靠性等多個方面進行全面的風險評估。

作者:趙精武

《網際網路法律評論》特約專家

北京航空航天大學法學院副教授

【免責聲明】此文僅代表作者個人觀點,與本平台無關。本平台對文中陳述、觀點判斷保持中立,不對所包含内容的準确性、完整性或可靠性提供任何明示或暗示的保證。

繼續閱讀