天天看點

數字法治|鄭志峰:人工智能立法的一般範疇

作者:中視聯播
數字法治|鄭志峰:人工智能立法的一般範疇

鄭志峰

西南政法大學民商法學院副教授

數字法治政府研究院研究員

近年來,以AlphaGo、谷歌自動駕駛汽車、ChatGPT等為代表的新一輪人工智能技術應用不斷湧現,在為社會經濟發展賦能的同時,也對現有的法律秩序提出了挑戰,如何通過立法對人工智能進行治理成為各國亟待應對的重要課題。早在2017年2月,歐洲議會就通過了《就機器人民事法律規則向歐盟委員會的立法建議》(以下簡稱《機器人技術民事法律規則》),針對人工智能提出一系列大膽的監管設想。2021年4月,歐盟委員會釋出《關于人工智能的統一規則(人工智能法)并修正某些聯合立法行為》(以下簡稱《人工智能法》)提案,更是掀開了全球人工智能立法的新篇章。2023年6月,歐洲議會以高票通過了關于《人工智能法》的授權草案,進入确定法案最終條款的談判階段,離法案的正式生效隻有一步之遙。國内層面,2017年7月,國務院出台《新一代人工智能發展規劃》,明确提出“制定促進人工智能發展的法律法規和倫理規範”。2022年8月,深圳市出台《深圳經濟特區人工智能産業促進條例》,這是全國首個關于人工智能治理的地方性法規。随後,上海市出台了《上海市促進人工智能産業發展條例》。2023年6月,國務院辦公廳印發《國務院2023年度立法工作計劃》,明确提出“預備提請全國人大常委會審議人工智能法草案”。2023年7月,《生成式人工智能服務管理暫行辦法》正式出台,成為全球首個針對生成式人工智能的專門法案。2023年8月,由學者牽頭起草的《人工智能法(示範法)1.0》(專家建議稿)出台,标志着大陸人工智能立法正式邁入大規模集中立法的新階段。

人工智能立法離不開人工智能法學研究的理論支撐。為回應人工智能治理的現實需求,大陸學界迅速展開讨論,短短六年出現了一大批優秀的研究成果,助推了《資料安全法》《個人資訊保護法》《網際網路資訊服務算法推薦管理規定》《網際網路資訊服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等法律法規的制定。然而,相關研究整體上呈現出明顯的部門法色彩和具象化特征,聚焦于機器人法律人格、自動駕駛汽車侵權責任、人臉識别的隐私風險、算法歧視、算法黑箱、資料權屬、個人資訊保護等具體問題的探讨,如何從宏觀上建構一套系統的人工智能立法體系尚付之阙如,有關人工智能立法的一般範疇尚未達成共識。為展現人工智能立法的全域圖景,大陸人工智能立法應建立整體布局,圍繞人工智能如何立法、立哪些法應有清晰的概念和規劃。為此,本文試圖透過紛繁複雜的人工智能具象迷霧,建構人工智能立法的一般範疇,明确立法的基本層次、規範類型、内容要素以及思維政策,解決人工智能立法從何開始、立什麼法、立什麼内容以及怎麼開展立法等一般性問題,為大陸人工智能立法工作提供智力支援。

一、人工智能立法的基本層次

人工智能立法從何開始是需要首先解決的問題。對此,我們需暫時遠離具體問題的泥淖,将視線重新放回人工智能這一概念本身,認識人工智能的三重面目,繼而确立人工智能立法的三個基本層次。

(一)智能科技立法

從曆史上看,人工智能不過是人類文明演進中出現的一種新興科技,但為何人工智能引發的法律挑戰如此的特别,人工智能究竟與其他科技有何差別?這是我們認識人工智能的第一步,也是人工智能立法的第一層次,即智能科技立法。對此,我們需要掀開人工智能作為智能科技的神秘面紗,揭示人工智能不同于曆史上以往其他科技的獨特之處,解開人工智能沖擊現有法律秩序的謎題,進而才能明确人工智能立法的基本需求。

無論我們采取何種定義路徑,人工智能的關鍵都在于其獨有的高度智能屬性,即可以像人類一樣理性地思考和行動,這是人工智能差別于其他科技的根本所在,也是人工智能對于現有法律秩序造成前所未有沖擊的關鍵。具體來說,現行幾乎所有的法律都遵守一個基本假設,即所有的決定都是由人類作出的。人類是唯一的理性主體,唯有人類可以從事駕駛汽車、診斷疾病、藝術創作等社會活動,法律也隻調整人類的行為以及由此産生的社會關系。然而,人工智能恰好是模拟人類理性的技術,能夠像人類一樣充當司機、醫生、藝術家等各種角色,引起社會關系的産生、變動和消滅。人工智能作為人類之外的自主力量參與到社會活動的運轉中,這直接打破現行法律規則的基本假設,由此帶來巨大沖擊。故此,人工智能立法首先是針對智能科技的立法,核心是以人類智能為基礎建構的法律秩序如何應對機器智能崛起引發的挑戰。

智能科技立法解決的是機器智能提出的一系列法律挑戰,其中,最為核心的是人工智能的法律地位問題。随着人工智能日益智能化,人機之間的關系邊界逐漸模糊,機器人越來越向人類靠攏,在模拟人類智能的道路上越走越遠,人工智能能否取得法律人格就成為一項重要課題。對此,歐盟《機器人技術民事法律規則》提出,“從長遠來看要創設機器人的特殊法律地位,以確定至少最複雜的自動化機器人可以被确認為享有電子人的法律地位,有責任彌補自己所造成的任何損害,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中适用電子人格。”從目前情況來看,賦予人工智能電子人的法律人格時機或許還不成熟,但明确人工智能的法律地位是開展後續立法的前提,直接關系相關權利、義務、責任規則的建構。例如,如果人工智能獲得法律主體地位,那麼圍繞自動駕駛汽車侵權責任的規則将截然不同,現有的機動車交通事故責任、産品責任很可能不再适用,雇主責任甚至由人工智能獨自承擔責任的模式将會出現。同樣,如果人工智能被視為法律主體,那麼人工智能創作物的著作權規則也将改寫,現有的作品署名、著作權歸屬、著作權保護等規則都将修訂。總之,機器智能幾乎沖擊着現行法律規則的每個角落,人工智能立法首先需要解決智能科技的立法,應對機器智能提出的各種挑戰。

(二)智能要素立法

人工智能一詞誕生于20世紀50年代,有着60多年的發展曆史,其間經過多次熱潮與低谷。事實上,目前人們對于人工智能的各種讨論并不是什麼新鮮事。例如,早在1996年,巴塔亞·弗裡德曼(Batya Friedman)和海倫·尼森鮑姆(Helen Nissenbaum)撰寫的《計算機系統中的偏見》一文中,就建構了一套評估和回應機器人不公平歧視問題的架構;而1980 年《紐約時報》的新聞标題就出現了“機器人正在搶走你的工作”。為此,我們不禁要思考,新一輪人工智能熱潮與此前的人工智能浪潮到底有何差別?對此,一種普遍的認識是,得益于資料、算法以及算力三大要素的全面突破,人工智能成為數字時代世界各國競相追逐的技術高地。無論人工智能如何百般變化,抓住智能三要素就抓住了機器智能的關鍵,這正是機器智能的奧秘所在。基于此,人工智能立法的第二層次為智能要素立法,具體圍繞資料、算法以及算力三要素展開。

資料是人工智能的基礎養料,沒有資料就沒有智能,是以,資料立法成為智能要素立法的基礎問題。對此,各國高度重視資料立法。例如,歐盟在資料立法方面異常活躍,先後出台了《通用資料保護條例》《歐洲資料戰略》《歐洲資料治理法案》《數字服務法案》《數字市場法案》等系列法案。《歐洲資料戰略》就明确指出,“過去幾年,數字技術已經改變了經濟和社會,影響了所有的活動領域和歐洲人的日常生活。而資料處于這場轉變的中心,并且還會有更多的改變。對于企業而言,資料是開發人工智能産品和服務必不可少的資源。”同樣,美國也認識到了資料要素治理的重要性,相繼釋出了《大資料研究和發展計劃》《聯邦大資料研發戰略計劃》《聯邦資料戰略與2020年行動方案》等系列政策。考慮到大資料是算法的燃料,對資料的監管實際上從源頭影響人工智能行業的發展。故此,資料立法對于人工智能的治理具有基礎意義,具體則需要區分戰略資料、人格資料以及生産資料三個層次,核心是協同推進資料的安全與利用。

與此同時,算法作為人工智能的本質,是機器智能的直接來源。如果說人工智能是一套解決問題或者完成特定任務的智能系統,那麼算法就是這套智能系統的靈魂,決定着智能系統的解題思維與方法。目前,算法在社會經濟發展和公共治理中扮演着重要角色,算法應用的巨大積極作用與負面影響亦日漸引人注目,算法挖掘引發的個人資訊洩露、自動駕駛算法的事故風險、智能推薦算法帶來的資訊繭房、深度合成算法帶來的虛假資訊、商業算法實施的算法壟斷以及算法黑箱、算法歧視等各種問題已經受到社會高度關注。基于此,針對算法進行專門立法成為資料立法之後的新領域,構成智能要素立法的又一個基礎問題。對此,美國《2019年算法問責法案》《2022年算法責任法案》、加拿大《自動化決策指令》、紐西蘭《算法憲章》以及大陸《關于加強網際網路資訊服務算法綜合治理的指導意見》《網際網路資訊服務算法推薦管理規定》等都是算法立法的重要嘗試。需要注意的是,算法與資料要素常常融合一體發揮作用,資料立法與算法立法也常常呈現犬牙交錯的狀态。例如,《網際網路資訊服務算法推薦管理規定》就多處涉及資料治理,而《個人資訊保護法》也關注到了自動化決策的規制問題。

相較于算法和資料,算力問題受到了極大的忽視。2020年8月,美國安全和新興技術研究中心釋出報告《人工智能三要素以及對國家安全戰略的意義》指出,“目前算力在很大程度上被大家所忽視,但實際上算力支撐了大量現代人工智能的進步。人工智能的大量進步不是通過讓系統變得更像人類,或者通過向計算機傳授更多的人類知識,而是通過賦予機器學習系統更強大的處理能力來自主學習。從這個角度來看,算力很可能是智能三要素中最為重要的部分。”實踐中,各國圍繞算力的明争暗鬥一直在上演,如美國對于先進計算機晶片的嚴格管控就是人工智能時代算力政策的直接展現。是以,算力立法也是智能要素立法必不可少的組成部分。例如,《深圳經濟特區人工智能産業促進條例》第三章“産業基礎設施建設”特别提到算力基礎設施、計算平台、算力資源等建設,強調了算力規制的重要性。《上海市促進人工智能産業發展條例》第13條、第14條也明确提出,加強算力基礎設施規劃,推動公共算力基礎設施建設,實施“東數西算”工程,保障人工智能産業發展算力需求。總之,如何通過立法保障算力安全、可用、夠用是智能要素立法的重要課題。

(三)智能應用立法

人工智能是一項通用性技術,可以賦能不同的應用場景。例如,人工智能與傳統汽車結合就産生了自動駕駛汽車,人工智能應用于醫療領域就出現了醫療人工智能。近來備受矚目的GPT-4等生成式人工智能,更是邁向通用人工智能的重要一步,其通用能力能夠在抽象、了解、視覺、編碼以及數學、醫學、法律、對人類動機和情感的了解等各類型和各領域的場景中廣泛應用。不同應用場景中的人工智能各有特點,其法律風險、表征以及回應機制各不相同。故此,人工智能立法的第三層次為智能應用立法,即針對不同應用場景中的人工智能引發的法律挑戰進行回應。

從立法規制的角度來看,對于各種場景下的人工智能應用形式,需要特别注意兩組區分:第一組是高風險人工智能與低風險人工智能。不同應用場景的風險屬性不同,這直接影響對應的人工智能應用形式。對此,歐盟《人工智能法》就将人工智能應用場景分為“極小、有限、高、不可接受”四類風險等級,等級越高的應用場景受到的限制越嚴格。《上海市促進人工智能産業發展條例》第65條也規定,對高風險的人工智能産品和服務實行清單式管理,遵循必要、正當、可控等原則進行合規審查。對中低風險的人工智能産品和服務采用事前披露和事後控制的治理模式,促進先行先試。第二組是輔助型人工智能與替代型人工智能。替代型人工智能強調以機器智能取代人類智能進行決策,将人類排除在決策之外,如自動駕駛汽車就是典型的替代型人工智能。而輔助型人工智能強調以機器智能輔助或者增強人類智能,人類與機器共同決策,如醫療人工智能、司法人工智能就屬于輔助型人工智能。這兩種人工智能的人機關系有着明顯差別,相關的權利、義務、責任規則也自然不同。

各國普遍關注智能應用的立法。例如,大陸針對自動駕駛汽車就出台了《智能網聯汽車道路測試管理規範(試行)》《智能網聯汽車道路測試與示範應用管理規範(試行)》《關于加強智能網聯汽車生産企業及産品準入管理的意見》《深圳經濟特區智能網聯汽車管理條例》《上海市浦東新區促進無駕駛人智能網聯汽車創新應用規定》等;針對人臉識别出台了《關于審理使用人臉識别技術處理個人資訊相關民事案件适用法律若幹問題的規定》(以下簡稱《人臉識别技術司法解釋》)。2022年7月,科技部等六部門聯合印發《關于加快場景創新以人工智能高水準應用促進經濟高品質發展的指導意見》指出,推動人工智能場景創新對于促進人工智能更高水準應用、更好支撐高品質發展具有重要意義。随後,科技部釋出《關于支援建設新一代人工智能示範應用場景的通知》,提出首批支援建設的十個示範應用場景,分别是智慧農場、智能港口、智能礦山、智能工廠、智慧家居、智能教育、自動駕駛、智能診療、智慧法院以及智能供應鍊。這為今後智能應用的立法指明了方向。

二、人工智能立法的規範類型

人工智能立法需要解決立什麼法的問題,即明确立法到底采用何種類型的法律規範。從曆史上看,規範類型的選擇需要服務于科技法治理的目标,既要克服科技不足、促進科技發展與應用,也要規制科技過度、預防和應對科技帶來的風險,由此形成了産業促進法與風險治理法兩組規範類型。人工智能作為一種新興科技,可以在現有規範類型上進行更新。

(一)人工智能産業促進法

對于科技的立法首先應當有助于鼓勵科技發展和經濟效應的轉化,解決科技發展不足的困境。從曆史上看,科技通常具有直接轉化為經濟效應的能量,是以市場本身就是刺激科技發展的重要動力,科技的發展通過自發的市場手段就可以得到很好的激勵,法律要做的是掃清市場障礙、建立有活力的市場環境,由此産生科技市場法。法律通過建構合理的交易規則、産權規則、競争規則等來發揮市場資源配置的作用,以充分刺激科技活動的展開,鼓勵人們革新技術,促進經濟的發展。與此同時,市場作為一種資源調配的方式并不是萬能的,存在外溢性失靈、消費性失靈、排他性失靈以及創新過程失靈等各種缺陷。為克服市場的不足,需要政府的介入與幹預,由此出現科技政策法。第三次工業革命以來,科技政策的作用不斷凸顯,更加注重政策導向和機制作用,進而發展出一套旨在促進科技進步、轉化和創新的特殊法律制度。特别是随着國際競争的加劇,科技越來越成為衡量國家競争力的關鍵要素,科技的政治屬性日益強化,這使得國家通過政策引領科技發展成為趨勢,科技政策法的重要性得到前所未有的增強。同樣,人工智能也需要産業促進法的保障。

其一,人工智能市場法。市場與科技具有天然的緊密關聯,市場作為資源調配的一種方式,可以對人工智能科技活動起到激勵作用。一方面,傳統市場法建構了一套成熟的交易規則、産權規則以及競争規則,對于激發人工智能科技市場的活力具有基礎性作用;另一方面,人工智能也有不同于傳統科技的特點,這意味着需要配置與之相适應的新市場法規則。例如,新一輪人工智能熱潮是建立在海量資料基礎上的,資料成為人工智能産業發展最重要的生産要素,這就要求我們圍繞資料建構新的産權規則、交易規則以及競争規則。2018年6月,日本經濟産業省釋出《利用人工智能和資料的合同指引》,旨在為企業簽訂資料利用合同或利用人工智能技術開發利用軟體合同提供參考,試圖更新資料相關的交易規則。與此同時,大陸也相繼釋出《關于建構更加完善的要素市場化配置體制機制的意見》《資料安全法》《要素市場化配置綜合改革試點總體方案》《中共中央 國務院關于建構資料基礎制度更好發揮資料要素作用的意見》(以下簡稱“資料二十條”)等,為加快培育資料要素市場以及流通規則提供頂層設計。再比如,算法和資料成為企業擷取競争優勢的重要工具,算法合謀、資料壟斷成為人工智能時代市場法規制的重點。為此,2021年2月,國務院反壟斷委員會釋出《國務院反壟斷委員會關于平台經濟領域的反壟斷指南》,資料和算法兩個關鍵詞在壟斷協定、濫用市場支配地位、經營者集中等章節被頻頻提及。而地方層面,《深圳經濟特區資料條例》第四章專門針對資料要素市場的公平競争問題作了規定。此外,《上海市促進人工智能産業發展條例》《深圳經濟特區人工智能産業促進條例》也都提到遵循“市場導向”,利用市場機制發展人工智能。

其二,人工智能政策法。鑒于市場對于人工智能科技活動可能存在消極影響,如市場回報不足導緻科研創新投入不夠、壟斷行為導緻競争失靈等,政府需要進行幹預,這就是政策法的作用。現有政策法,主要從科技人才、科技經費、政府舉措、成果歸屬四個方面着手,如大陸《科學技術進步法》《促進科技成果轉化法》《國家科學技術獎勵條例》等,通過及時更新可以繼續發揮作用,保障大陸人工智能産業發展。例如,《上海市促進人工智能産業發展條例》《深圳經濟特區人工智能産業促進條例》就充分貫徹了政策法的思維,前者強調“強化投融資、研發、人才、市場等各種政策的支援”,後者提出“在資金、産業用地、人才等方面對人工智能産業予以支援”。與此同時,《人工智能法(示範法)1.0》(專家建議稿)也設定了“人工智能支援與促進”專章,強調專業人才培養、财政資金支援、國家機關先行先試等政策支援。需要注意的是,政策法需要貫徹到人工智能立法的三個層次,而不僅僅是智能科技層面。故此,我們在制定人工智能産業促進法的同時,也需要關注智能要素、智能應用的産業促進問題。例如,美國聯邦層面2016年以來相繼釋出了4版自動駕駛政策以及1項綜合計劃,在法律法規尚未修訂時為自動駕駛汽車上路測試、應用以及營運提供政策豁免,并整合38個聯邦部門、獨立機構、委員會和總統行政辦公室在自動駕駛領域的工作,為自動駕駛汽車提供全方位的政策支援。再比如,歐盟《歐洲資料戰略》明确提出加大資料領域的投資,認為私人投資和公共投資對于推進資料經濟的發展都至關重要,并提出将在2021年至2027年投資一個與歐盟資料空間和雲基礎設施整合有關的具有重大影響力的項目。

(二)人工智能風險治理法

幾次工業革命的發展曆史已經充分證明,科技是一把雙刃劍。一方面,科技能夠為社會經濟發展注入強大的活力,促進市場繁榮和社會發展,全方位提升人們的生活水準,推動社會文明的進步;另一方面,科技存在異化和濫用的風險,進而帶來一系列負面影響。從曆史上看,飛機、汽車、輪船等發明都極大地友善了人們的出行,疫苗、藥品等醫療創新提高了人們的健康水準,電能、核能等能源技術的應用為社會提供了發展所需的能源,但這些科技也帶來了交通事故、醫療事故、核事故等風險。是以,法律需要規制科技發展帶來的風險,以解決科技過度的問題,這就構成風險治理法。同樣,人工智能技術也不可避免地帶來了許多新風險,需要配套相應的風險治理法。

對于人工智能引發的風險,有學者将其總結為倫理風險、極化風險、異化風險、規制風險以及責任風險,有學者則将之歸納為人工智能不确定的技術風險、人工智能偏離設計應用的風險、人工智能被非法使用的風險、人工智能的社會風險以及人工智能的倫理風險。筆者認為,人工智能的風險治理法可以從三個層次觀察:其一,從智能科技層面出發,法律需要解決機器智能帶來的風險,集中展現在機器智能取代或者輔助人類智能引發的人機秩序混亂,人類智能主導的社會秩序如何相容機器智能的強勢闖入。對此,歐盟《機器人技術民事法律規則》《關于人工智能系統運作的責任立法倡議》以及南韓《機器人基本法案》等就是應對這一層次風險的努力。其二,從智能要素層面出發,需要解決算法、資料與算力各自引發的風險。相較于資料與算法,算力要素更為中性,算力風險主要是一種靜态的安全風險,而算法與資料風險則呈現出明顯的動态特征,安全與濫用風險并存,且表現形式複雜、多樣和開放。例如,《網際網路資訊服務算法推薦管理規定》重點圍繞算法風險展開治理,就算法推送内容虛假低俗、算法殺熟、算法沉迷、算法排程侵害勞動者權益保障等各種算法風險作了針對性規定。其三,從智能應用層面出發,則需要解決自動駕駛汽車、醫療人工智能、人臉識别、生成式人工智能等具體應用場景中各自存在的風險。不同應用場景中的風險表現不同,如自動駕駛汽車、醫療人工智能等會造成實體世界人們人身财産的直接損害,而人臉識别、生成式人工智能等主要影響個體的人格權益與知識産權。

當然,人工智能産業促進法與風險治理法并非泾渭分明的獨立版塊,而是互相交錯關聯的有機整體,常常需要組合在一起才能發揮效用。以資料治理為例,我們既需要從産業政策方面給予激勵和引導,也需要建構科學合理的資料市場規則,同時還需要規制資料活動對于個體隐私和個人資訊保護帶來的風險。對此,大陸出台《要素市場化配置綜合改革試點總體方案》《資料安全法》《個人資訊保護法》以及“資料二十條”等法律政策,就是試圖從三個方面進行資料治理。同樣,無論從智能科技、智能要素、智能應用任何一個層次出發,都需要一套産業促進法與風險治理法協同的組合拳。

三、人工智能立法的内容要素

在明确人工智能立法的規範類型後,我們還需要明确立法的具體内容要素,即人工智能立法究竟涉及哪些主體、客體以及各方的權責關系如何。

(一)主體層面

人工智能立法首先要明确規制的主體範疇。筆者認為,主要包括如下幾類。

第一,人工智能科技活動的參與者。凡是人工智能科技活動的參與者都應當是人工智能立法需要規制的主體,涵蓋人工智能科技的研發、生産、銷售、使用的全部流程。例如,歐盟《人工智能倫理準則》開篇就明确指出,這些指南适用于所有設計、開發、部署、實施、使用或受人工智能影響的人工智能利益相關者,包括但不限于公司、組織、研究人員、公共服務機構、政府機構、民間社會組織、個人、勞工和消費者。一方面,人工智能立法是全過程的立法,而不僅僅包括人工智能的利用主體,還特别指向人工智能的研發設計者,這有助于從源頭治理人工智能。對此,《人工智能法(示範法)1.0》(專家建議稿)第四章也特别提到了人工智能研發者的義務。另一方面,人工智能立法是全類型的立法,涵蓋現行全部的法律主體類型,既包括法人、非法人組織以及自然人,也包括國家和政府機構。其中,國家和政府機構既是人工智能立法的主導者、執行者,同時也是人工智能技術的研發設計者、應用者,他們廣泛利用人工智能進行社會治理,掌握着海量的資料和先進的算法,故也應受到法律的調整。例如,《個人資訊保護法》《資料安全法》以及《民法典》都明确了國家機關、承擔行政職能的法定機構對于履職過程中知悉的自然人的個人資訊負有保密義務,以及國家機關負有開放政務資料的職責。

第二,網絡平台。網絡平台是數字經濟時代的新業态組織,兼具組織與市場的特征,與純粹的法人不同,是介于市場和企業之間的第三種經濟形态,或者說平台是介于市場與企業之間的網絡組織方式。無論作為商業模式、經濟形态還是組織架構,平台的本質特征是為使用者之間的交易提供連接配接、比對服務。從現行法律規則來看,平台并不屬于法律明确規定的主體類型,與傳統法人或者非法人組織相去甚遠,但它切切實實地成為了人工智能時代數字活動的集散地、主導者。特别是在海量資料和算法技術的加持下,平台的權力得到了極大的強化,平台利用算法可以實作大規模的自動化處理,影響着生态圈内的每個人,如平台算法對外賣騎手鎖定操控的問題就受到廣泛關注。對此,歐盟《數字服務法案》中“大型線上平台”(very large online platforms)以及《數字市場法案》中的“守門人”(gatekeepers)規則,都直接指向平台。與此同時,大陸《電子商務法》《國務院辦公廳關于促進平台經濟規範健康發展的指導意見》《資料安全法》《個人資訊保護法》以及《網際網路資訊服務算法推薦管理規定》都貫徹了平台治理的精神,強化了平台處理資料和利用算法的義務。2021年10月,國家市場監督管理總局更是釋出了《網際網路平台分類分級指南(征求意見稿)》以及《網際網路平台落實主體責任指南(征求意見稿)》,平台治理進入精細化階段。

第三,人工智能。法律調整的對象應當是法律主體,目前人工智能并不具有法律人格,不屬于人工智能立法規制的主體。然而,随着機器智能在圍棋、圖像識别、語音識别等許多方面不斷超越人類,有關人工智能能否獲得法律人格的讨論變得越來越火熱。而GPT-4等生成式人工智能的崛起,更是讓人們看到了強人工智能的可能。有學者認為,智能機器人擺脫人類的純粹工具地位而擷取主體身份,将是一個必然的趨勢。雖然目前賦予人工智能法律人格似乎還缺乏正當性與必要性,人工智能自身還無法承載法。但從發展的眼光來看,這一問題仍然充滿開放性。2020年7月,歐洲議會法律事務委員會研究報告《人工智能與民事責任》就指出,出于簡化民事責任承擔、管理監督人工智能、将人工智能與相關主體資産剝離以及稅收等方面考慮,不排除賦予人工智能法律人格的可能。而從預防和治理人工智能風險、造福社會的角度出發,責任與主體之間的關系也應該進一步松綁甚至脫鈎,凡是風險的制造者都應成為責任的承擔者。不管是機器人,或者是某種意義上的非完全的人,是否有意圖或者決斷,隻要發生了某些負面後果,其就要承擔一定的責任。這種不考慮人格的有無、隻關注損害配置設定的思維,符合人工智能時代風險治理的理念。基于此,人工智能立法規制的主體範圍也不應武斷地将人工智能本身排除在外。

(二)客體層面

在明确主體範疇後,我們還需要厘清人工智能立法規制的客體。筆者認為,起碼包括如下幾類。

第一,人工智能科技。人工智能科技是人工智能立法需要規制的首要客體,如自動駕駛汽車的安全性能、人臉識别系統的準确率、智能投顧系統預防網絡攻擊的能力等。即使未來人工智能獲得法律人格,也不妨礙其客體屬性,因為其隻能是相對主體,就像公司作為法律主體的同時也是法律客體一樣。對于人工智能科技的治理是實作源頭治理的關鍵。歐盟《人工智能倫理準則》倡導的七條倫理準則中的第二條“技術堅固性和安全性”,就是針對人工智能科技本身提出的要求,即人工智能科技産品或者服務必須具備抵禦攻擊和安全的能力、準确性、可靠性和可重複性。歐盟《人工智能法》也在多個條文專門規定了人工智能科技産品本身的品質管理問題。人工智能科技本身的治理也是展開後續治理的基礎,特别是對于高風險屬性的人工智能應用。以自動駕駛汽車為例,其相關立法首先應當聚焦在“車”上,貫穿于道路測試、示範營運、産品準入、登記上路、許可營運等各個階段。例如,《智能網聯汽車道路測試與示範應用管理規範(試行)》第8條明确申請道路測試的自動駕駛汽車除具備一般車輛的安全性能外,還需具備人工駕駛與自動駕駛随意切換、記錄測試資料兩項功能。2022年11月,工信部釋出《關于開展智能網聯汽車準入和上路通行試點工作的通知(征求意見稿)》,試圖通過試點方式來確定自動駕駛汽車的各項安全能力。

第二,人工智能科技活動。再好的人工智能産品或者服務,也可能因為主體的濫用行為而産生風險。故此,法律需要對人工智能科技活動進行治理。無論是人工智能科技的研發設計階段,還是生産銷售階段,抑或應用消費階段,都屬于人工智能立法規制的對象。考慮到人工智能巨大的影響力,對于設計研發活動的立法尤為重要。歐盟《人工智能白皮書》就指出,“人工智能引發的風險可能源于人工智能系統設計過程中就存在的缺陷,或者來源于在不糾正可能存在的偏見的前提下使用資料。”大陸《新一代人工智能發展規劃》也特别強調,研發設計人員要遵守相應的法律道德規則。對此,法律應當鼓勵研發設計人員開發設計安全可靠、尊重人類自主性、尊重隐私等負責任的人工智能科技,同時禁止研發人工智能大規模殺傷性武器以及充滿歧視、暴力、色情的人工智能科技。與此同時,人工智能的供應活動、使用活動也是重點規制的對象。例如,《上海市促進人工智能産業發展條例》第67條明确列舉了六項禁止從事的人工智能研發和應用活動。

第三,人工智能三要素。除上述兩類客體外,人工智能立法的客體還特别指向人工智能三要素本身。例如,資料是人工智能的基礎,已經成為人工智能時代的生産資料,資料喂養的數量和品質直接決定人工智能産業的發展水準,是以人工智能立法的客體要特别指向資料以及資料活動。無論是《資料安全法》《個人資訊保護法》建立的資料分級分類管理制度以及個人資訊分類保護制度,還是資料權屬、資料交易、資料競争等資料規則的塑造,都需要圍繞資料本身展開。再比如,算法也是人工智能立法的重要客體。對此,《網際網路資訊服務算法推薦管理規定》在重點針對應用算法推薦技術提供算法服務進行治理的同時,還特别強調針對算法本身進行規制:一是主管部門建立算法分級分類安全管理制度,二是對于具有輿論屬性或者社會動員能力的算法需要備案與開展安全評估,三是算法推薦服務提供者應當定期評估算法機制機理、模型、資料與應用結果等。這些治理措施的落實都需要依賴算法本身治理。此外,算力也是人工智能立法的重要客體,《上海市促進人工智能産業發展條例》《深圳經濟特區人工智能産業促進條例》就非常強調算力的規制。

(三)權責關系

人工智能對于現有權責關系的影響是全方位的,既包括法律價值的重塑,也包括具體規則的影響。

1.法律價值層面

人工智能不僅對現有具體法律規則帶來挑戰,也會對目前的法律價值産生沖擊,諸如人類自主、技術安全、資料算法正義、隐私尊嚴等将成為這個時代人們廣泛認可的新價值取向。為适應人工智能時代的科技變革,各國在積極倡導人工智能治理的倫理原則,以便豐富更新現有的法律價值。這同樣可以從人工智能立法的三層次來觀察。

其一,智能科技層面。機器智能的出現勢必重塑人類智能時代的法律價值觀。一是人機關系。人類與機器之間的秩序需要明确的法律價值指引,類似艾西莫夫“機器人三法則”的内容将轉化為基本的法律價值,以建構适應人機協作共存社會的信任機制,解決機器智能帶來的安全問題。二是人人關系。曆史證明,新技術可以消除基于舊技術的不平等,但也可能産生新的更大的不平等。同樣,人工智能技術的廣泛應用會引發更大範圍的公平與正義問題,如何解決人工智能發展帶來的“技術鴻溝”問題也同樣急迫。為此,智能科技層面的立法主要從人類整體福祉出發,包括堅持人類的自主性、保障技術的安全性、倡導技術發展的正義性,讓人工智能技術盡可能造福于整個人類社會。

其二,智能要素層面。算力、資料以及算法對于現有法律價值産生沖擊,引發了新的價值訴求。以正義問題為例,一方面,資料成為新的生産要素,這會引發配置設定正義的思考,少數企業和平台壟斷了資料資源,在整個市場的運作中處于壟斷地位,進而讓作為個體的消費者和其他競争對象難以得到正義的對待;另一方面,算法也成為平台行使權力的新工具,通過算法這一外衣既享受了權力的實質紅利,又規避了權力行使所需要承受的外部成本。對此,保護隐私、資料平權、算法透明等成為智能要素立法需要堅守的新法律價值取向。

其三,智能應用層面。不同的應用場景所重視的價值不盡相同,需針對具體應用場景更新具體的法律價值。2017年6月,德國釋出《自動化和互聯化車輛交通倫理準則》,提出“生命至上”“禁止提前程式設計應對電車困境”等20條倫理原則,重塑了自動駕駛汽車出行領域的法律價值觀。這些法律價值觀并不當然适用于人臉識别、醫療人工智能、生成式人工智能等應用場景,如電車困境問題就具有專屬性,故需要挖掘不同人工智能應用場景所關注的不同法律價值。

2.具體規則層面

其一,權利義務責任關系的重塑。一方面,人工智能對于既有權利義務責任關系産生挑戰。如自動駕駛汽車引發的交通事故,就需要更新汽車生産商、自動駕駛系統供應商、高精地圖供應商、所有人等主體的責任承擔規則。另一方面,人工智能也催生了新的權利義務以及責任需求。例如,面對人工智能引發的隐私和個人資訊保護危機,個體的權利武器庫不斷得到充實,被遺忘權、攜帶權等資料類權利不斷出現,算法解釋權、免受自動化決策限制權等算法類權利也逐漸興起。與此相對的是,利用資料和算法的主體負擔着對應的義務與責任。

其二,權力格局的重塑。個體權利爆炸的同時,國家和政府機構的權力也在增長,人工智能技術成為國家治理現代化的最佳工具,公權力機構掌握着海量的資料,在算法的加持下,“監控國家”正在成為現實。與此同時,權力的分散化、扁平化趨勢明顯。例如,平台企業的私權力急劇擴張,成為強有力的“利維坦”,在平台之内充當公權力機構的角色,制定着平台内交易規則、糾紛解決規則,實質上行使着“準立法權、執法權、司法權”。這種強大的私權力,在公權力的馴化下成為國家治理的重要部分。權力應當以權利為目的,權力的擴張意味着權力主體必須負擔更多的職責。為此,針對政府機構的算法問責、政府資料公開成為監督公權力的一種新趨勢,而平台企業也應當保護個體權利、維護市場公平競争秩序,接受公權力和社會監督。這些都是人工智能立法需要具體回應的内容。

四、人工智能立法的思維政策

人工智能立法除明确基本層次、規範類型與内容要素外,還需要确定立法的思維政策,以便指導具體的人工智能立法活動的開展。

(一)立法思維

立法活動的開展需要一套涵蓋主體、工具以及流程的思維指引。對于人工智能立法而言,應當确立協同立法、多元立法以及靈活立法的基本思維,以確定立法活動的靈活有效。

1.協同治理——人

人工智能是一項影響面廣的颠覆性技術,對社會經濟生活産生全方位的沖擊,影響着系統中所有組織與個體。為了最大限度地發揮人工智能的優勢,同時減少風險,盡量避免意外後果,我們必須繼續在政府、企業、非營利組織和公民社會代表、學術研究人員和所有其他利害相關的個人群組織之間舉行公開讨論。這種多方協同治理的思維是應對人工智能挑戰的基本思維,可以有效地黏合各方力量實作社會共治。對此,《人工智能法(示範法)1.0》(專家建議稿)第13條就提到了“促進多元主體協同共治”。

其一,國内層面。人工智能應用滲透到社會的各個角落,應當聚合全社會各階層力量,形成政府監管、企業履責、行業自律、社會監督的協同治理局面。一方面,公權力機構應當發揮引領作用,加強與私營企業的合作。美國《2019年國家人工智能研發戰略規劃》就特别在2016年版本的基礎上增加了一項新戰略“擴大公私合作夥伴關系”,明确指出“人工智能研發的進步将受益于所有這些類型的公共私營合作夥伴關系。”對此,人工智能立法需要強調國家和政府機構的主導作用,既是為了解決人工智能技術研發的高投入、高風險、長周期、低回報等問題,同時也是為了保證人工智能技術安全可控,符合國家安全與國家治理的價值取向。另一方面,除政府機構、私營企業之外,社會第三方力量也同樣重要。例如,作為第三方的非營利組織Propublica就首先發現了量刑算法的系統性歧視問題。當然,社會監督力量的運作需要配套的保障機制,如商業平台和政府機構内部的“吹哨人”可以揭發權力濫用,但也需要比對保護“吹哨人”的規則保護傘。與此同時,社會第三方力量也是推動人工智能産業發展的重要角色。對此,《深圳經濟特區人工智能産業促進條例》就明确鼓勵社會資本參與人工智能産業發展,支援社會力量開展人工智能獎勵活動,建立和完善社會監督的人工智能治理機制。

其二,國際層面。機器智能沖擊的是整個人類社會,建構人工智能立法的全球共識迫在眉睫。2016年美國《為人工智能未來做好準備》提出了23項措施,其中第21條提到“美國政府應當加深與關鍵國際利益相關者的合作,包括外國政府、國際組織、業界、學術界等,以交流人工智能研發方面的資訊并促進合作”。歐盟《人工智能白皮書》也指出,“歐洲完全有能力發揮其全球上司作用,圍繞共同價值觀建立聯盟并促進人工智能應用合乎道德。歐盟将以符合歐盟規則和價值觀的方式,繼續與志同道合的國家以及人工智能領域的全球參與者展開合作。”與此同時,《人工智能法(示範法)1.0》(專家建議稿)第11條也高度重視國際合作的原則,以便推廣中國經驗與中國方案。對此,重點可以圍繞三個方面展開:一是容易與國際社會達成共識的話題,如人工智能倫理原則、準則以及規範的對話,這是各國普遍關注且可能達成最低共識的領域。例如,大陸《新一代人工智能倫理規範》與歐盟《人工智能倫理準則》存在諸多共識,可以作為人工智能國際立法的基礎。二是對于國家安全影響重大的話題,如資料治理問題,直接關系到國家主權與安全,各國比較急迫想要達成一些共識,或者了解中國的基本立場。對此,大陸2020年釋出的《全球資料安全倡議》就及時向世界傳達了中國資料治理之道。三是關于人工智能技術标準方面的合作。例如,2019年,聯合國世界車輛法規協調論壇通過了中國、歐盟、日本和美國共同提出的《自動駕駛汽車架構檔案》,就自動駕駛技術達成廣泛共識,提出九項具體原則。

2.多元治理——工具

早在1999年,美國學者萊斯格教授就提出,網絡空間的規制起碼包括法律、準則、市場以及架構四種手段,如何優化這些要素的組合是有效規制的關鍵。法律與科技之間存在天然鴻溝,法律的保守性、剛性等特征難以跟上日新月異的科技發展的腳步。對于人工智能的治理,切忌“一刀切”的生硬強制手段,更适合采取多視角的、綜合性的、社群指向的“軟法”方式。為此,人工智能立法要重視倫理、技術等治理工具的作用。

第一,倫理治理的法治化。人工智能的技術邏輯是在不斷模拟人的智能,但更為深層的社會邏輯則是要在廣泛的社會經濟關系中取代人,即對創造秩序的颠覆。這使得人工智能天然需要倫理治理。對此,《人工智能法(示範法)1.0》(專家建議稿)第40條明确規定“人工智能研發者、提供者應當按照有關規定開展科技倫理審查”。一方面,在法律規則不明确或者不适宜出面時,倫理規範可以發揮軟性限制的引導作用,確定人工智能技術發展符合人類倫理價值。據不完全統計,2016年以來,國際組織、政府機構、民間組織、學術團體等各類主體釋出的有關人工智能倫理規範已經超過了40項。另一方面,在圍繞人工智能的倫理治理達成一些共識的基礎上,需要通過立法的方式上升為法律規範,進而更好地貫徹倫理治理。故此,人工智能立法需要考慮倫理治理的問題,起碼可以包括三個方面:首先,建立完善的倫理治理機制,包括組建人工智能倫理委員會、制定人工智能倫理制度規範、加強人工智能倫理教育與研究等。例如,《深圳經濟特區人工智能産業促進條例》《上海市促進人工智能産業發展條例》都明确規定設立人工智能倫理委員會,組織制定倫理規範指南。其次,劃定人工智能活動的倫理紅線,倡導人工智能倫理向善。對于一些已經具有高度共識、形成常态化行為準則或者涉及重大倫理挑戰的情形,法律可以直接設定具體、細緻的行為規則;而對于新興領域、中間地帶,法律需要重視通過确立原則來引領科技倫理治理。最後,強化倫理治理的責任保障,確定人工智能相關主體履行倫理職責。例如,通過落實倫理設計等方式,在技術研發過程中真正展現倫理原則。

第二,技術治理的法治化。人工智能科技帶來了新的挑戰,也帶來了新的解決方案,技術治理正在成為一種潮流,是數字法治領域自覺适用的一種範式。例如,面對人工智能引發的隐私和個人資訊保護挑戰,隐私設計理論提出通過裝置、系統、技術或服務的實體設計、技術設定、代碼架構的适用來保護個人資訊。與此同時,以聯邦學習、差分隐私、安全多方計算為代表的隐私安全技術,嘗試在保證隐私和資料安全的前提下實作資料的共享和利用,成為近年來資料治理領域最為重要的方向之一。再比如,面對深度合成技術帶來的以假亂真的危害,鑒僞技術與溯源技術的應用就十分重要,如何鑒僞并利用時間戳、數字水印、數字簽名和區塊鍊技術來追溯圖檔或音視訊内容的真實性成為工作重點。基于此,《人工智能法(示範法)1.0》(專家建議稿)第58條也特别提到“鼓勵在人工智能領域應用監管科技、合規科技”。需要注意的是,技術治理不能脫離法律治理,技術語言要轉化為法律語言,技術規範要轉化為法律規範,通過法律賦予技術治理強制性與價值性,通過技術來落實法律治理的要求與目标。故此,人工智能立法需要充分考慮技術治理的角色,将技術治理靈活适度地法治化。

3.靈活治理——流程

人工智能立法的目的并不是消除風險,而是主動管理風險,将風險控制在可控範圍,同時依據風險程度采取相應的措施,保持治理的靈活性。

其一,預防原則。人工智能立法必須注重對研發、設計活動以及研發者、設計者的規制,這樣有助于從源頭建構一套合乎道德倫理和公共利益的科技治理體系。例如,對于人工智能的安全問題,我們不能光強調事後追責和救濟,還應從人工智能産品研發設計的開始就考慮安全問題,以最小成本最大限度地預防風險。同樣,算法治理、個人資訊保護、自動駕駛汽車事故責任規制等都應當貫徹預防治理的思維,從源頭盡可能減少人工智能技術引發的風險。

其二,比例原則。比例原則強調治理措施要與風險比對,確定精準治理。2019年,歐盟人工智能進階專家小組釋出的《可信賴人工智能政策和投資建議》提到“采取基于風險的監管方法”,強調監管幹預的特征、強度和時機取決于人工智能系統産生的風險類型。随後,歐盟《人工智能法》也貫徹了基于風險的比例理念,将人工智能予以風險分級,對于不可接受級别風險的人工智能明确予以禁止,對于高風險級别的人工智能配備了全方位的監管規則,而對于有限風險級别的人工智能則主要從透明度方面入手規制。這種基于風險的治理方法可以很好地平衡安全和發展兩種價值,無論是對于智能科技、智能要素、智能應用的治理都有重要意義。大陸在人工智能立法中也在踐行比例原則。無論是《資料安全法》确立的資料分類分級保護制度,還是《網際網路資訊服務算法推薦管理規定》建立的算法分級分類安全管理制度,抑或《深圳經濟特區人工智能産業促進條例》規定的人工智能應用分級分類監管辦法,都是在強調措施與風險的精準比對。此外,風險分級還應當具有靈活性與适應性,能夠通過“數字沙盒”“安全港”“試點”等方式推動人工智能的實驗與應用落地。

其三,管理系統。風險存在于人工智能科技活動的全生命周期,法律應該努力建立一套完善的風險管理系統,以便主動預防緩解風險。歐盟《人工智能法》第9條專門針對高風險人工智能系統要求建立風險管理系統。與此同時,《資料安全法》《個人資訊保護法》《網際網路資訊服務算法推薦管理規定》《深圳經濟特區人工智能産業促進條例》《上海市促進人工智能産業發展條例》等法律法規都規定了相應的風險管理制度。《人工智能法(示範法)1.0》(專家建議稿)第38條也特别提到“建立健全和實施全生命周期風險管理制度”。風險管理制度的核心在風險識别、分析與應對。首先,風險識别階段,即識别人工智能風險的類型、頻率、可能、程度、廣度等,以全面了解風險的基本面貌。這種風險識别既可能是風險事件引發的被動識别,更強調責任主體、監管主體定期排查的主動識别。同時,針對人工智能技術自主性與不可預測性的技術特點,可以引入已知安全、未知安全、已知危險與未知危險的分析架構,重點關注已知危險與未知危險的識别。其次,風險分析階段,即對于已經識别出的風險作進一步的分析,重點包括兩塊内容:一是分析風險發生的原因、路徑、機制、條件等,了解風險的發生機制,主要針對已知危險;二是分析風險可能引發的直接影響與間接影響、短期影響與長期影響、定向影響與非定向影響等,洞悉風險的作用機制,涵蓋已知風險與未知風險。在此基礎上,對風險進行更為精準的等級與類型判定。最後,風險應對階段,即在風險識别與分析的基礎上,采取針對性的應對措施。對于緊急事件,啟動緊急應對預案;對于正常風險,則采取對應的技術、組織措施予以保障。風險的應對應當考慮主體的實力,中小企業與大型網際網路公司應當不同對待。

(二)立法政策

1.制定人工智能立法路線圖

立法是人工智能治理最重要的部分。如何有步驟、有規劃地開展人工智能立法至關重要。對此,有必要制定一份人工智能立法路線圖,以指導今後一段時間内新法制定、舊法更新工作。2020年12月,南韓科學和資訊通信技術部與國家事務協調辦公室共同釋出了《人工智能立法路線圖》,制定了包括11個領域的30項立法任務,旨在奠定人工智能時代的法律基礎。同時,南韓還專門成立“人工智能立法工作組”,不斷修訂和完善立法路線圖,以推動人工智能産業的健康發展。大陸按照2017年《新一代人工智能發展規劃》的部署,2021年至2025年是人工智能治理的關鍵階段,需“初步建立人工智能法律法規、倫理規範和政策體系”。《法治中國建設規劃(2020—2025年)》也明确提出“加強資訊技術領域立法,及時跟進研究數字經濟、網際網路金融、人工智能、大資料、雲計算等相關法律制度,抓緊補齊短闆”。可以預見的是,人工智能立法将成為未來一段時期的重點,制定一份人工智能立法路線圖非常有必要,可以為立法工作提供指導,避免頭痛醫頭、腳痛醫腳的無序立法。

2.産業促進法與風險治理法的協調

目前人工智能展現了一定的智能優勢,但仍屬于弱人工智能階段,故人工智能立法應當以鼓勵技術創新和經濟發展為主旋律,側重于掃除科技市場障礙,出台産業政策,推動人工智能技術創新和應用,加速技術向經濟的賦能和轉化。為此,市場法、政策法應當成為人工智能立法的優先級規範類型。事實上,近年來美國、歐盟、日本等釋出的法律政策,大部分屬于這一範疇,如美國《2019年國家人工智能研發戰略規劃》《美國人工智能倡議》《在聯邦政府推廣使用可信人工智能》,歐盟《人工智能白皮書》《歐洲資料戰略》,日本《利用人工智能和資料的合同指引》等。國内層面,《深圳經濟特區人工智能産業促進條例》《上海市促進人工智能産業發展條例》是一個很好的例子,可以拓展至人工智能立法的三個層次,時機成熟可以上升為中央立法。與此同時,考慮到人工智能已經引發一些風險,如隐私和個人資訊保護、算法操控、法律責任等問題,故需要制定針對性的風險治理法。對此,大陸已經出台《個人資訊保護法》及《網際網路資訊服務算法推薦管理規定》等規定,還需要細化相關的配套規則。但即使是風險治理法,也應當兼顧産業發展的需求,過于嚴格的風險治理規則會讓人工智能發展失去先機。例如,近期公布的《生成式人工智能服務管理暫行辦法》相較于征求意見稿,在多個條文中明确監管安全與發展,鼓勵生成式人工智能在各行業、各領域的創新應用以及算法、架構、晶片及配套軟體平台等基礎技術的自主創新,同時删除了生成内容必須真實準确等不合理義務,為産業發展留出了空間。再比如,《人工智能法(示範法)1.0》(專家建議稿)也通過合規不起訴、監管沙盒、創新監管等鼓勵人工智能産業發展。

3.智能科技、智能要素、智能應用立法的選擇

有學者認為,對于人工智能的治理需要制定一個專門的法律,叫《人工智能科技法》,即從智能科技層面進行立法。有學者則認為,人工智能的規制需要場景化,不存在一般化的規則,強調智能應用的立法。筆者認為,人工智能不同層次的立法緊迫性不一樣。考慮到目前機器智能整體上并不發達,優先從智能要素、智能應用層面進行立法,時機成熟後再制定一部統一的《人工智能法》。一方面,資料、算法以及算力是人工智能的基礎,智能要素的立法應當處于優先級别,亟需配套相應的市場法、政策法和風險治理法。以資料治理為例,在市場法層面,需要明确資料産權、資料交易以及資料競争等問題,故需要制定《資料财産保護法》《資料交易法》,同時更新《反不正當競争法》《反壟斷法》等競争法規則;在政策法層面,國家和政府機構需要明确資料戰略地位、開放資料資源、加大資料投資、人才培養,故需要制定《國家資料戰略與行動計劃》《政府資料開放法》等;在風險治理法層面,需要解決資料洩露、資料濫用等問題,故需要制定《資料安全法》《個人資訊保護法》等。另一方面,智能應用的立法同樣緊迫,關系到搶占關鍵人工智能産業高地的國家戰略。以自動駕駛汽車為例,目前處于道路測試向商業落地的關鍵階段,亟需從車、人、路、雲四個角度掃除自動駕駛汽車商業化落地的障礙,包括道路測試規範、道路交通安全法、準入管理指南、汽車資料安全管理等。退一步說,即便要出台一部《人工智能法》,也應當充分認識到《人工智能法》并不能包治百病,仍然需要推進智能要素、智能應用層面的立法,形成有層面、有側重的人工智能體系法。

4.中央立法與地方立法的安排

人工智能立法應當堅持中央引領、地方協同的立法模式,以便全國一盤棋,避免各自為政。一方面,從人工智能立法三層次來看,智能科技以及智能要素的立法應當堅持以中央立法為主,地方層面可以在智能應用方面尋求試點;另一方面,從人工智能立法的規範類型來看,人工智能市場法、風險治理法應當堅持中央立法為主,以便形成有預期的市場規則與行為規則。地方政府可以在人工智能政策法方面發揮能動性,如《深圳經濟特區人工智能産業促進條例》《上海市促進人工智能産業發展條例》就是有益的嘗試。當然,中央與地方的立法也應當保持靈活性。以資料治理為例,從中央層面建構個人資訊保護、資料産權、資料交易、資料競争等規則是最為有效的,但由于資料治理尚缺乏足夠共識,有選擇的地方試點可以為中央立法提供先行先試的經驗。對此,《深圳經濟特區資料條例》的出台,可以為中央層面制定《資料财産保護法》《資料交易法》《政府資料開放法》等提供寶貴的經驗。但人工智能立法的地方性試點不應要求四處開花、多多益善,避免未來中央統一立法遭遇過多來自地方層面的制度阻力。

五、結語

從全球範圍來看,随着歐盟《人工智能法》的不斷推進,以及生成式人工智能的新一輪爆發,人工智能治理已經邁入大規模集中立法的新階段。人工智能立法需要區分智能科技、智能要素、智能應用三個層次,不同層次的風險發生、表征與治理機制不同。無論是歐盟的《人工智能法》,抑或大陸《人工智能法(示範法)1.0》(專家建議稿),都是試圖從智能科技層面對人工智能進行立法,但其并不能替代智能要素、智能應用層面的立法,無法一勞永逸地解決人工智能引發的所有問題。例如,針對人工智能的侵權責任問題,《人工智能法(示範法)1.0》(專家建議稿)第66條規定,除非研發者和提供者能證明自己沒有過錯,否則需要承擔賠償責任,确立了過錯推定原則。然而,這種從智能科技層面确立的責任規則并不能當然地适用于智能要素與智能應用。以智能應用為例,高風險人工智能與低風險人工智能、替代型人工智能與輔助型人工智能的侵權責任差別甚大,難以适用統一的責任規則。例如,自動駕駛汽車造成交通事故,作為研發者、提供者承擔的是無過錯的産品責任,而非過錯推定責任。

與此同時,人工智能立法還需要平衡産業促進法與風險治理法,産業促進法又具體包括市場法與政策法兩組子類型,既要克服科技不足也要警惕科技過度,并明确作為立法内容的主體、客體以及權責關系。從這個角度來看,《人工智能法(示範法)1.0》(專家建議稿)同時涵蓋了産業促進法與風險治理法,但前者主要集中于政策法,并沒有涵蓋市場法的内容,而後者也主要是通過明确生産者、研發者的義務以及确立綜合治理機制來實作,并沒有解決人工智能帶來人機、人人關系的挑戰問題,更沒有涉及智能要素、智能應用層面的風險問題。此外,人工智能立法應當确立協同治理、多元治理以及靈活治理的基本思維,同時有必要制定一份清晰的人工智能立法路線圖,以便明确未來人工智能立法的整體方向與具體步驟。這意味着即使我們制定了一部《人工智能法》,未來仍然需要從智能要素、智能應用層面出台針對性的法律。

(本文原載《數字法治》2023年第6期)

數字法治|鄭志峰:人工智能立法的一般範疇

專題統籌:秦前松

繼續閱讀