天天看點

東方法學特稿|孫山:論人形機器人的法律地位

作者:中視聯播

作者:孫山,西南政法大學民商法學院副教授、法學博士。

融合人工智能、大資料、算法的機器人,無疑是下一個處于風口的産業。縱觀諸多機器人類型,人形機器人是其中最引人注目且最能引發新思考的。人形機器人既具有機器人的共有特征,也會因其類人的外形和深度介入人類家庭生活而産生需要特别注意的技術、倫理與法律問題。類人外形的具身存在和以湧現方式生成的決策、内容,工具的先天定位與人類情感的後天投射,這些特征都推動着我們去思考人形機器人規制的元問題:人形機器人的法律地位。擺在人類面前的三個選項分别是:緊跟技術的變化,直接承認人形機器人的主體地位;固守人類本位,堅持作為工具的對象定位;采取折中态度,有限度地承認其主體地位。完成初步選擇之後,我們還需在制度層面實作相應的法律地位,升華現有的法學理論與法律規範體系,使之更加公平有效有彈性,緊跟數字時代的飛速發展。

受限于産業本身的發展水準與年限,國内外對于人形機器人法律地位及其實作的研究較少。在當下及可以預見的未來,人工智能都是機器人運作的基礎技術架構,一些學者并不嚴格區分人工智能體和機器人,機器人可以被視為人工智能的具身,目前人工智能法律問題的種種讨論,同樣适用于包括人形機器人在内的所有類型機器人。類人外形的具身存在是人形機器人有别于傳統機器人的特殊之處,基于湧現的決策與内容生成方式是人形機器人與人類之間關系剪不斷理還亂的現實基礎,人形機器人法律地位的明确,也應從這兩點入手,而以往的研究大都對此忽略,或闡述不夠。本文從具身和湧現所引發的問題入手,通過梳理機器人發展的曆史與現狀,發掘民事主體變遷背後的考量因素,秉持人類中心主義的立場,論證人形機器人隻能确定為法律對象而非法律主體的核心觀點。

一、具身與湧現:人形機器人運作的現象解讀

人形機器人運作中會産生諸多由技術應用而引發的法律問題,而這些法律問題的根源,是具身和湧現。美國學者萊恩·卡洛(Ryan Calo)認為,機器人技術與網際網路存在着顯著差異,由此導緻一系列新的法律問題,這些差異主要展現為:機器人技術首次通過具身的方式,将資料的混雜性和造成身體傷害的能力結合在一起;機器人系統以無法預測的方式,也就是湧現的方式完成任務;機器人模糊了人與工具之間的界限。具身與湧現,是人形機器人所引發種種法律問題的事實基礎,自然成為我們在确立人形機器人法律地位時必須慎重對待的現象。

(一)具身:人形機器人深度介入人類生活的起點

以類人的造型實作具身是人形機器人有别于普通機器人的最明顯差異。首先需要聲明的是,本文所研究的機器人,是以具身的方式存在于實體世界中的機器人,不包括存在于計算機中的“軟體仿真程式機器人”。所謂具身,是指以各類機械裝置作為其存在的實體,将各項程式功能具體化為各類可執行指令的機械裝置。而人形機器人,是指總體造型上接近于人類外形的機器人。機器人已經在人類社會生活和家庭生活中被廣泛應用,存在形态多種多樣,但多數機器人都沒有以人形的方式出現。實際上,類人造型會增加設計、制造成本,隻有那些用于處理看護和私密事務的機器人,才有必要設計成類人的造型,以提升人類對機器人的接納度。工業機器人、特種機器人等根本不需要設計成類人的造型,本文對于這兩類機器人所引發的法律問題不作讨論。就整體輪廓和造型而言,我們還是可以将人形機器人與普通機器人區分開來,類人的造型是其差別于普通機器人的最明顯差異,而這種差異又引發了一系列法律問題。

具身是機器人深度介入人類生活的開始。不同于人類以往使用的各項技術發明,機器人的侵入性更強,傳感器、網絡互聯與算法是機器人侵入人類生活的技術基礎,我們面臨着時刻被窺探、被記錄、被畫像的風險。第一,機器人會主動搜集、傳輸各類資訊。以往的各項技術發明,不具備主動搜集資訊并向外傳輸的能力,隻是一個單純的工具。人形機器人的“侵入性”主要展現在資訊的主動搜集和傳輸,私人住宅也成為大資料擷取的場景,與網際網路相連接配接使得資訊可能被不間斷傳輸到雲端,隐私資訊有成為公開資訊的危險。不止于此,由于隐私邊界的逐漸淡化,個人的自由空間被進一步壓縮。第二,機器人集合了多項核心技術,可以完成對使用人的畫像,變相放大了侵入性。在網際網路技術的加持下,平台電腦、智能手機等移動終端也可以搜集和傳輸資訊,侵入人類的社會生活與家庭生活。算法的應用給平台營運商賦能,平台營運商可以從獲得的海量資料中抽取有用的資訊,但這些海量資料并不包含網絡使用者在家庭生活中的具體資訊。機器人的具身存在比任何平闆電腦、智能手機或傳感器更具侵入性,借助算法,使用人的生活習慣、性格特點、個人偏好等也被生産廠商了解。功能越強,威脅自然也就越大。

具身使得機器人不但進入人類的家庭生活,更影響到人類的社會生活。機器人已經滲透到人類生活的方方面面,這種變化使得我們不得不直面機器人所帶來的社會影響。具身的機器人對人類生活的影響主要有:第一,身體層面的實體傷害。具身的實體存在不可避免地給人類帶來了傷害和與之相伴生的責任承擔問題,走進家庭的人形機器人将傷害從工廠延伸到了住宅。第二,心理層面的隐私破壞。通常情形下,人形機器人可以自由進出家庭中的每個房間。在缺少法律規制的情況下,走進家庭的人形機器人會持續搜集使用者的隐私資訊,最終會對隐私權造成破壞性的影響。第三,資料領域公共安全的多方威脅。如果機器人搜集資訊的行為不受任何限制,那麼可以想象,平台之外還會出現濫用他人隐私資訊的其他主體,包括但不限于企業、個人和政府。當我們每個人都因隐私的公開而變成透明人之時,以住宅為邊界建構的私人領域将不複存在,資料領域的公共安全也就名存實亡了。

人形機器人具身進一步激發了人類承認人形機器人主體資格的想象。外形上的相似性會讓我們産生共情,而共情就是人形機器人主體資格想象的道德起點。國外有學者認為,相比于以往任何技術,外形上的相似使得機器人對人類具有更大程度的社會效價,機器人的地位介于人和對象之間。相比于陪伴、共生時間更久的某些家養動物,一些人更傾向于将人形機器人視作下一個可以平等對待的主體。盡管某些家養動物在情感上與人類有更緊密的聯系,但迄今為止世界各國都沒有出現将其他動物當作法律主體加以特别保護的系統立法,至多強調其他動物是特别的權利客體,否定虐殺等違背人類道德共識的行為。歸根到底,還是出于人類的情感需求而保護其他動物。類人的具身和交流能力則讓我們産生将人形機器人視為同類的沖動,而這種沖動又随着技術的進步逐漸演變為持續的訴求。

(二)湧現:人形機器人決策形成的另類邏輯

湧現是使用人工智能技術的人形機器人相應決策形成的邏輯。湧現,是對英文“emergence”的翻譯。湧現作為科學術語最早由著名實體學家菲利普·安德森于1972年使用,他認為湧現是一種在較小模型中不存在但會出現于較大模型中的能力。湧現給我們揭示了這樣一種效應:當個體數量達到一定規模時會産生一種群展現象,群展現象無法從原來的個展現象中推導出來,複雜的實體系統可能表現出的行為不能僅根據控制其微觀成分的定律來了解。湧現是人工智能,特别是大模型應用中的一個常見現象。内置了人工智能後,人形機器人運作中也會出現湧現現象。從誕生之初,機器人就能按照程式給定的指令完成一定任務。不過,長期以來機器人隻能嚴格執行指定的任務,當外界環境發生變化時,機器人無法随機應變。随着人工智能、大資料等配套技術的迅猛發展,機器人也逐漸具備了一定應變能力,可以根據環境随機采取“自主行動”,這種有别于人類的“自主行動”,就是湧現。

湧現導緻損害的責任承擔更加複雜,歸責問題成為人形機器人商業化應用過程中必須厘清的前提性問題。早期研發中,機器人都隻能執行人類事先給定的程式性指令,并不能根據外界環境改變行為。在這種技術背景下,機器人所導緻的損害由指令發出者承擔責任,是沒有任何疑問的。但是,因為不能因應外部環境變化,此時的機器人隻能完成特定的任務類型,是專用機器人。衆所周知,專用機器人更适合工業流水線,進入家庭生活的成本偏高,通用機器人才是家庭使用的理性選擇。人工智能,特别是大模型的應用,賦能人形機器人和外部環境完成互動,極大推動了人形機器人的發展程序,通用機器人具備了落地的現實可能性。機器人與計算機有着根本差異,其中之一就是機器人與動态世界的互動。“機器人不斷地與動态的世界進行互動,通常所設定的算法不足以涵蓋所有這些動态,是以機器人的最終行為與編碼的内容有很大的不同。”最終行為對編碼内容的超越,即為人工智能、大資料和算法綜合作用下的湧現。湧現意味着當人形機器人與外部環境互動時,人類并不能對其行為的導向和結果作出精準預測。如此一來,究竟誰應該對代碼的作用承擔責任,就不是很明确了。

人形機器人緻害的歸責,應當擺脫投機主義思維的影響,強調“權利—義務—責任”相一緻的原則。美國著名學者勞倫斯·萊斯格提出“代碼即法律”,在他看來,根植于軟體和硬體中的代碼定義了網絡空間的術語,成為網絡空間的規制者,屬于社會生活的“預設環境”和“架構”,可以限制和指導人類的行為。而當湧現現象出現時,情況正好相反:自我學習系統可能既不可預測,也不受人類對适當行為的期望的限制,代碼成為逃避人類監管的工具,不再是規範人類的法律。在此基礎上,有學者進一步指出,機器人法律問題的研讨中經常出現機會主義的思維,通過機器人獲益時部分人會淡化湧現,機器人緻害時部分人則會強調湧現,而法律的目标是滿足這種可預見的投機主義,完善利益配置設定與責任承擔的歸責。對此,本文則持相反觀點,人形機器人湧現行為的歸責與賦權應當秉持“權利—義務—責任”相一緻的原則,風險與收益歸為一體,建構符合公平、效率、安全、秩序價值訴求的制度體系。人形機器人的市場化推廣過程中設計、生産廠商是最主要的受益者,購買者也可從後續的使用行為中獲益,義務的履行和責任的承擔也應當主要在這幾方主體之間配置設定。

“權利—義務—責任”相一緻同樣是解決人形機器人生成内容是否受著作權法保護問題的主導性原則。緻害的同時,人形機器人也會給使用人帶來有價值的産出——人工智能生成内容。由于人工智能的内置和機械裝置的具身外化,人形機器人不但會像普通的人工智能一樣生成内容,而且會因具身的存在得以将生成内容輸出、固定為各種人類所能感覺的實體形式,同樣面臨著作權保護與否的取舍問題。從生成過程來看,湧現離不開人類主體的參與。湧現的前提是作為使用者的人類輸入了基本的指令,人工智能随後生成符合基本指令的内容。如果需要更貼合自身要求的内容,使用者還須輸入更多限定性條件,與人工智能完成互動。顯然,使用者輸入的限制性條件越多,生成的内容也就越符合他的需求。從生成結果來看,湧現的結果在形式上與完全由人類創作且獨立完成的智力成果無法區分。獨創性是作品的構成要件,是決定特定表達是否構成作品的關鍵所在。歸根到底,“獨創性的判斷對象是已經形成的表達本身,判斷時隻需要對表達作形式上的審查”。一些學者主張排除人工智能生成内容的獨創性,但是,如果事先未告知内容生成的主體,僅靠人自身是無法有效區分,更不要說在此基礎上完成立法與司法實踐了。承認湧現結果的獨創性,就是在承認人類有限理性的基礎上,超越人類的有限理性,最終服務于理性的人類。生成内容有着巨大的商業價值,自然會出現權利、義務和責任,如果權利、義務和責任主體不一樣,内容生成的法律風險和商業風險将會無限放大,産業發展勢必成為空談。湧現絕不是重複,從結果出發,将之視為創作,按照“權利—義務—責任”相一緻的原則将權利主體确定為使用人,是我們應對生成式人工智能問題時成本更低、效果更好的解決方案。

二、貌合神離:機器人法律主體地位之否定

(一)權利主體與對象的學理糾葛

在傳統的叙事表達中,機器人往往被界定為一種有可能最終反抗并奴役人類的特殊工具。文學作品中,機器人常常會被描述為因缺乏完整的程式設計或者突然出現的某種行為、錯誤而難以控制。影視劇中,機器人則是妖魔化的重災區,《星球大戰》《銀翼殺手》《終結者》和《西部世界》等都推出了令人印象深刻的機器人反派,人類自身的生存都受到了機器人的威脅。不可否認,當代社會群眾受到傳媒的巨大影響,傳統叙事表達中所營造的機械、麻木、冷血的機器人形象,都會影響我們對人形機器人本身的認知與接納。著名科幻作家阿西莫夫對機器人形象的扭轉起到了重要作用:“通過創造機器人三法則,他将我們對機器人的想象從威脅轉變為解釋和監管的對象,進而成為諷刺和沖突的來源。”

人工智能技術取得長足發展和老齡化日益嚴重的當下,确認機器人的主體地位已經成為一種比較時髦的話語。根據機器人的适用範圍,可将其分為工業機器人、服務型機器人和特種機器人等。可以預見,在全球人口老齡化的大背景下,服務型機器人将會步入普通百姓的日常生活。在這一過程中,我們也必然會思考不同國家所面臨的相同問題:是否要确認機器人的主體地位。對于工業機器人,我們通常不會産生賦予其主體地位的想法,迥異于人類的外形和與人類家庭生活關聯松散這兩點特征決定了人類很難對其産生情感投射。服務型機器人則有所不同,與人類家庭生活關聯緊密會讓人類産生情感投射。人形機器人更因其造型而激發人類的同理心,“當機器人喚起弱勢群體之間的信任或友誼時,敏感的倫理問題就出現了”,倫理問題的核心,就是是否要确立機器人的主體資格,給機器人以同等對待。甚至有學者暢想人機混合社會中“電子人文化”與人類文化共生交融,接納“電子人”的法律主體地位,将立論的基礎標明在遙遠的不可知的未來。

權利主體與權利對象的定性将産生不同的法律效果,這是我們明确機器人法律地位過程中必須考慮的制度背景。權利主體是目的本身,權利對象則是實作目的的工具,這一根本差别決定了權利對象是可以被任意處置的範疇,權利主體有其獨立存在的價值。無論是權利主體,還是權利對象,作為功能性概念,它們的價值都依附于特定的規範體系,定性的不同意味着迥異的法律效果,意味着配套規範有明顯差異。這就提醒我們,在明确機器人法律地位時,不能隻考慮個體在哲學、倫理學上的偏好,還須兼顧法律定性的法律效果與社會效果。

(二)民事主體變遷背後的考量因素

民事主體資格的确認是社會發展到一定階段的結果,并不存在先驗的、确定不變的民事主體範圍,經濟交往的需要是立法者考量的首要因素。法律主體經曆了從“人可非人”到“人可人”再到“非人可人”的曆史變遷。從羅馬法到近代各國立法,自然人的平等地位逐漸被承認,“人”的隊伍不斷擴編。這種擴編,一方面是因為人權觀念的勃興,另一方面是因為經濟發展導緻大家族的解體、小家庭的獨立和個體作為經濟活動單元的變化。與此同時,法人與非法人組織的主體地位也獲得了立法者的認可,這兩類主體資格的認可都在一定程度上減免了自然人的無限責任,激發了經濟活力,履行了個體不能代行的公共職能。是以,非人類實體的主體地位之獲得源于立法者的抽象和虛拟,基于現實中人的需要。從曆史梳理中我們得出一點結論:主體資格賦予的首要考量因素是經濟交往的需要,其次才是倫理道德的要求,主體制度關注的核心問題始終是财産,關注财産歸誰所有。

立法者确認民事主體資格的主要目的是明确權利的歸屬,承認的前提是民事主體之間能夠有效溝通且共情,倫理關懷是主體資格确認時的次要考量因素。無論是自然人、法人,還是非法人組織,大陸民法典确認其主體地位都是為了完成随後的賦權。除此之外,民事主體資格也有其倫理上的價值。這方面的著例,是死者與胎兒利益的保護,而其反例,則是其他動物主體資格的否定。死者利益的保護,是把法律救濟延伸到死亡之後,胎兒利益的保護,則是将法律救濟延伸到出生之前。兩個方向的延伸,不是以日常用語中“人”的界定為法理前提,而是出于保障權利歸屬和實作倫理關懷的需要。死者曾經享有權利履行義務,胎兒未來會享有權利履行義務,以“權利—義務”為内容的社會關系是他們作為社會人的本質特征。而倫理關懷,則是要形塑一個道德層面的完整的“人”。相比之下,其他具備一定智力、擁有情感且會感覺人類部分情緒的動物,被徹底排除出主體範圍,人類制定的法律始終以維護人類利益為目的。我們無法确知其他動物的情感,更不能确知其内心真意,沒有進一步實施相應法律行為的可行性和必要性。在其他動物永遠不能自主行使權利履行義務的場景中,賦予其“權利”自然也就沒有任何價值可言了。

民事主體地位的确認,落腳點在民事責任的承擔,建構自由、公平、正義、安全、效率、秩序的法律制度環境,不能獨立承擔責任的存在無法成為有法律意義的民事主體。民事主體不但要具備權利能力,還要具備行為能力,能夠對其不法行為承擔責任,責任能力是行為能力的應有内容。自由、公平、正義、安全、效率和秩序都是人類所追求的基本法律價值,而這些法律價值的實作,離不開責任制度。能夠對自己的選擇承擔責任,這樣的自由才是值得追求的,不能承擔責任的自由選擇對他人而言就可能是災難。對于給他人造成的損害,唯有承擔責任才能維護公平與正義。承擔責任是群眾對安全的底線要求,法律主體對他人的行為産生最低程度的穩定預期。以責任的承擔換取對效率的追求,這種嘗試在民事活動領域是常見行為,效率違約也是一種理性的展現。通過對違約和違法主體追究責任,給予負面的規範評價,責任制度建構起穩定的法律秩序。綜上,責任的承擔保障了民事主體地位的确認與法律的價值追求趨于一緻,立法目的得以實作,獨立承擔民事責任成為民事主體資格的重要組成部分。

(三)機器人主體資格的否定

機器人在實體層面的特性決定了其不能了解法律規範對于自身的意義,法律規範無法直接影響機器人的行動選擇,為機器人拟制法律主體必須具備權利能力是沒有意義的。第一,機器人可以了解法律規範的字面含義,但不能真正了解法律規範的現實效力。機器人沒有獲得财産的需求,沒有組成家庭、延續生命的期望,不能感受生命的有限和自由的可貴。“權利能力是作為權利和義務主體的能力”,“權利—義務”就是人類的自然需求與社會關系的譜系化,是法律關系的常态,所有以“權利—義務”為表現形式、以人的自然需求和社會關系為基礎的法律規範,機器人是不可能從現實效力層面對其有所認知的。第二,機器人沒有獲得财産和其他社會評價的動力,其内在驅動力是計算機代碼。機器人沒有必須通過金錢交易或獲得社會評價才能滿足的利益訴求,也就不能了解包括财産制度在内整個法律制度的本質,賦予其主體地位無助于法律制度的有效運作。不論是否存在利益的移轉,機器人都會實施相應行為,内置的程式代碼是其驅動力,它并不能自主地、基于自身利益需求而作出行為選擇。當法律規範既不能被機器人所真正了解,也不能對其行動選擇的過程和結果進行直接、有效的調控時,确認其法律主體地位自然也就失去了法律意義。

機器人不能獨立承擔責任,不具備法律主體資格所需的責任能力。目前主張機器人主體地位說的學者,大多回避責任承擔的具體實作方式問題,少數對民事責任承擔的建議,則疊床架屋,主張在機器人構成主體的情況下由人類以商業保險、設立賠償基金等方式分散風險,其實質都是人類而非機器人承擔責任。這種醉死不認半壺酒錢的民事責任承擔方式,恰恰否定了機器人的法律主體資格。刑事責任的承擔,與民事責任大同而小異。機器人沒有生物學意義上的生命,無法真正了解生命和自由層面的限制。有學者認為,發展到一定階段的智能機器人在程式的設計和編制範圍外按照自主的意識和意志實施犯罪行為時,完全可能成為行為主體而承擔刑事責任。在他們看來,智能機器人具有自主意識和意志,能夠感覺刑罰“痛苦”,進而趨利避害完成行為選擇。但對一個不需要财産、不能真正了解生命和自由的存在而言,任何刑罰的執行都是沒有意義的。綜上,機器人不具備責任能力,強行規定為法律主體隻會适得其反。

對于機器人的主體資格确立,短時間很難達成倫理層面的共識,正當性不足。第一,人類是無法與機器人實作真正意義上的共情。類人的外形和人工智能的技術加持會讓一些人産生錯覺,以為人形機器人能與人類進行無限制的溝通。然而,真實情況沒有想象中發展得那麼快,機器人技術仍然處于初級階段,人與機器人缺乏互相共情的基礎,我們無需把一些人的單方情感投射放大為雙方的情感交流。反過來,機器人也無法與人類共情。每個人的生命存在與成長都是一個社會的、曆史的、文化的過程,相應的,人類擁有肉體生命、精神生命和社會生命的三重生命,而社會生命可能是機器人無法超越的技術瓶頸和價值悖論。第二,承認機器人主體資格的目的是展現人類的倫理關懷,但其結果則是将會給人類帶來更多倫理上的難題,結果與目的完全背離,是不可取的。承認機器人的主體資格,則機器人的生産廠商和使用人就可以免除機器人緻害所導緻的責任歸屬,由機器人自身承擔責任是尊重其主體資格的當然之理。然而,“法律在本質上是一種預防措施……那種試圖将我們傳統的懲罰觀念直接套用到機器人身上的做法是完全沒有意義的”。當承認機器人主體資格所産生的結果是讓作為道德主體的人類逃避本應由其承擔的責任時,這種不斷拉低人類道德底線的制度設計不應成為我們追求的方向。第三,個别國家針對機器人或自然事物确認主體資格的嘗試,規範意義有限,也沒有普适的可能,沒有參考價值。一些學者以Paro機器人在日本完成戶籍登記為例,提出機器人已超越“财産”定位。也有學者将人形機器人“索菲亞”被沙特阿拉伯授予公民身份為論據來證成機器人的主體資格。但是,上述事件屬于極端個案,象征意義遠遠大于實際價值,而實際價值僅限于茶餘飯後的談資。

法律拟制技術的存在和法人構成法律主體的立法實踐不能直接推導出機器人也應被拟制為法律主體,兩者之間沒有必然聯系,将機器人拟制恰恰不能實作立法目的。法律拟制是一些學者主張機器人法律主體地位的理論支撐,是證成主體地位的立法技術準備。通常認為,法律拟制是立法者“為了實作法律背後的制度目的而作出的一種不容辯駁的決斷性的虛構”。規範的制定是為了便利人與人之間的交往,以法人為典型的各類拟制主體的出現也是為了實作這一目的,并沒有獨立于人類自身的價值,“法人制度使團體本身的權利範圍同其成員的權利範圍相分離,使整體和個别成員之間能夠發生法律關系”。機器人的出現也不例外,在看待它與人的關系前景時不應陷入技術主義直線思維的“價值盲區”,機器人發展起來以後怎樣對待人,其實是人怎樣了解和對待人的問題。目前機器人并不存在獨立于人的利益需求,難以在所有事項上與人類有效溝通,更不能發生彼此間的共情,将其拟制為民事主體是無法達成立法目的的。有學者透過現象,直指機器人對人類自身種群命運的實質危害不在于莫須有的機器人“人格”本身,而是極少數創造算法、通過人工智能驅動社會運轉的業内人借助機器人“人格”的掩護,完成對更大多數人的算法獨裁與技術綁架。發展機器人從來都不是為了消滅人類自身,而是為了人類更好的生活,這是我們明确機器人法律地位的立場。拟制與想象之間,我們必須選擇現實,選擇不得不面對的這一切——機器人不是主體。

現有規範體系可以解決創設機器人主體所要回應的問題,欠缺确認主體的必要性。按照“如無必要,勿增實體”的奧卡姆剃刀原則,如果在現有規範體系之下就可以解決相關問題,那麼就沒有必要另起爐竈,确立機器人的主體地位,并以此為基礎設計一整套規範體系。創設機器人主體所要回應的問題,主要是湧現結果的著作權歸屬和具身運作導緻的侵權行為責任歸屬。對于這兩個問題而言,将權利歸由使用人享有而責任根據具體情形分别由使用人或生産廠商承擔,基本沿用現有規範體系,解決成本顯然更低。有觀點認為,在已經具備創造或者因自身決定導緻損害發生時,應将人工智能視為民事主體,但視為主體後不能運用産品責任或動物緻人損害的規定明确責任歸屬,在現行法架構下可類推适用雇主責任的規定。在不可能存在雇傭關系的情況下類推适用雇主責任,無視将機器人定位為工具後所形成的産品責任方案,這種舍近求遠的“拟制”路徑選擇并非優選。目前為止,并不存在隻有通過确立機器人法律主體地位才能夠解決的問題。

三、需要特别規制的特殊對象:人形機器人的法律地位

(一)法律風險總體可控的對象:作為特殊對象的人形機器人

人形機器人在某些領域乃至所有領域内表現出的智力水準超越人類,這一現實并不能當然證成人形機器人的法律主體地位,智力水準并非法律主體的構成要件。我們并不能僅僅因為人形機器人的智力水準和解決問題的整體能力高于人類而賦予其法律主體地位,安全、高效、可靠的機器人“工具”才是理想中的機器人形象。我們也沒有因為其他動物,特别是靈長類動物所表現出的智力水準而賦予其法律主體地位。從曆史上看,在否定奴隸、家子和女性主體地位的論證過程中,智力水準從來都隻是立法者的借口之一,但這種借口事實上根本不成立,限制獨立取得和處分财産的資格才是目的所在。而在擴大自然人主體範圍的過程中,獨立取得和處分财産才是實質性理由。

從運作效果上看,将人形機器人定位為對象所确立的權利歸屬、權利行使和責任歸屬的體系最為簡明。人形機器人實施相應行為的法律後果,包括行為所催生的權利之歸屬、行使和責任配置設定,對象的定位将其還原為工具,免去了定位主體時的種種困擾。第一,定位為對象後,人形機器人生成内容的權利均歸屬于使用人,權利主體明确,可以推動相關産業的健康發展。第二,定位為對象後,使用人憑借主體地位,積極主動利用人形機器人,趨利避害作出相應行為選擇。第三,定位為對象後,人形機器人的使用人和生産廠商将根據具體情況分别承擔責任,在第三人得到救濟的同時,人形機器人的使用人也會調整行為政策,生産廠商則會改進設計。把人形機器人定位為對象的實質,就是将一切法律效果複歸于人。有觀點認為,人工智能具有有限的法律人格,無法獨立完全承擔責任,應依據實際情況由其設計者、開發者、制造者或使用者承擔。然而,人工智能不是“無法獨立完全承擔責任”,而是“完全無法承擔責任”,“有限法律人格”的說辭背後,是工具的實際效果。不論如何調整表述,隻要責任最終由人類承擔,人形機器人就不可能成為法律上的主體。

在當下及未來較長一段時間内,人形機器人隻能是法律關系中的對象。道德與法律,不僅僅包含字面上的意思,更重要的,是文字背後深嵌入社會背景的人與人之間的互動關系。機器人沒有自身的利益訴求,沒有驅動其建立社會關系的内在動力,也就不會形成具有獨立意義的社會關系。是以,“至少在我們可預見的未來,機器人是不能完全了解人類的道德和法律的”。值得法律界人士關注的,不是技術實作的細節,更不是技術發展的可能方向,而是技術實施的現實後果。“技術主義直線思維”的最大特點是迷信技術,忽視技術本身的價值前提,脫離人類關注和考量的範圍,進入“價值盲區”。機器人為人而生,這是打破“技術主義直線思維”的認知立場。我們必須確定人形機器人的存在不會危及人類自身的生存與發展,隻有将人形機器人定位為對象時才能實作這一基本要求。

隻有将人形機器人定位為權利對象,堅持人類中心主義的立場,才可能建構起一種符合人類自身利益的法律秩序,廉價的博愛、泛愛隻會給人類社會帶來災難。古希臘哲學家普羅塔哥拉曾言“人是萬物的尺度”,将人類定位為觀察事物的中心,開啟了以人類為中心評價整個世界的曆程。法律是為了保護人類的利益而制定的,這本是人類社會的基本共識,法律自身就是人類中心主義的産物,屬于工具性範疇。然而,總有一些學者的出發點與衆不同,站在所謂上帝視角來思考問題,用推翻人類中心主義的博愛、泛愛叙事來認識世界和改造世界,在機器人的法律地位問題上也不例外。美國有學者提出“實力界定權利”的理論,強調不同群體的實力博弈決定着權利體系的構築。國内則有學者在此基礎上更進一步,提出機器人權利的生成完全依賴于機器人與人類的實力對比和博弈,應當建立不同種族間共存的法律保障機制,以此來應對老齡化社會的巨大壓力。按照這種邏輯,人類最終将陷入非常荒謬的悖論當中:如果人類繼續推進機器人的研究,那麼機器人将因其差距越來越大的優勢地位而取得對人類的統治權,人類隻能成為機器人的奴隸;如果人類在某個階段停止對機器人的研究,那麼這種故意遏制也将侵犯機器人的基本權利,就如一些人類遏制其他同類的發展權一樣,權利主體一說變成文字遊戲。人類中心主義是以人類的長期、共同利益為出發點,将人類中心主義矮化、片面解讀為不尊重自然和其他生命形式的觀點是完全錯誤的,尊重自然和其他生命形式也屬于人類的長期、共同利益,過往的困境、災難,恰恰源于對這一出發點的誤解。人類中心主義的立場,是我們建構、發展、完善法律規範體系的根本出發點。

作為人類建構的産物,人形機器人屬于法律風險總體可控的對象。在欠缺自我意識的時代,人形機器人并不可怕,我們應該擔心的,是日益強大的人形機器人與人類的目标不一緻。類人外形與高度複雜的技術內建,使得人形機器人隐藏着一定法律風險。由于運作時越來越依賴于人工智能、算法和大資料,人形機器人也會形成自己的目标。為確定目标一緻,我們需要在設計之初就加入倫理規則,引入人類的價值判斷,将人形機器人的目标限定在與人類基本共識相一緻的大範圍内。至于赫拉利在《未來簡史》中所預言的人工智能取得統治地位、少量由智人進化而來的“神人”可以“獨善其身”的場景,更是我們要力圖避免的。人類首次核試驗完成後,實體學家奧本海默曾引用了古印度史詩《薄伽梵歌》當中的一句話來表達自己的沖突心情:“如今我已成為死神,世界的毀滅者。”如果放任人形機器人技術的發展,确認其法律主體地位,那麼我們也将在未來發出同樣的哀歎。而将人形機器人定位為對象,就是要控制人形機器人的風險,保障法律風險總體可控。人類談論機器人時,通常關注的是它們是否會産生問題或造成威脅,但在大多數情況下,問題不在于機器人,而在于人類自身。圍繞人形機器人法律風險所制定的各類規範,歸根到底,都是用來調整人與人之間的關系,而非人與人形機器人之間的關系。

(二)倫理風險和技術風險較高的權利對象:需要特别規制的人形機器人

無處不在的傳感器和雲端存儲時刻威脅着人類的隐私,深度介入人類生活的人類機器人必須進行特别規制。人類将服務機器人引入家庭生活中,這可能會進一步減少隐私保護的機會。正如一些學者所指出的:“個人機器人将了解你的一切,個人生活中最私密的部分,你的家庭、财務狀況和身體病史。更為關鍵的是,它們與網際網路相連。”傳感器主動搜集和傳輸資訊,雲端存儲則将隐私資訊永久性地保留,放大損害的時間與空間。出于營利的需要,生産廠商會通過人形機器人尋求個人資訊的過度擷取,智能手機的使用中我們已經充分體會了資訊過度擷取與洩露帶來的困擾。不但如此,生産廠商還會進行資料貿易,将包含隐私資訊的海量資料出售給第三方,而個人對此一無所知。我們必須警醒,監控往往會帶來直接的、具體的收益,但同時也會帶來更長期、更分散的危險。

人形機器人偏離價值判斷的決策和管理活動,會給人類造成合乎個體理性但不符合整體價值追求的傷害。正常情形下,經過嚴格設計的人形機器人都是可以安全使用的工具,幫助人類實作各種合法目的。但當使用人發出惡意指令時,由于人形機器人缺少在具體場景中及時完成價值判斷的充分資訊,相應的決策和管理活動就會給人類造成合乎個體理性但不符合整體價值追求的傷害。我們可以給人形機器人以代碼的方式内置各種倫理規則,但這些抽象的倫理規則的落地,還需要結合具體的場景,而場景中的資訊,往往是人形機器人無法全部獲知的。例如,使用人發出指令,要求人形機器人搬運東西,在所有事物都接入物聯網之前,資訊不對稱使得人形機器人沒有辦法厘清所搬運東西的所有權狀态,對于使用人的偷盜指令也隻能遵照執行。是以,有必要在法律層面明确使用人惡意發出指令時責任的歸屬。

人形機器人運作中的資料安全問題,也是需要重點關注的,特别是黑客攻擊。資料傳輸過程中常常會發生資訊洩露,原因主要是自身網絡問題和黑客攻擊。在大資料時代,幾乎沒有所謂的“無用”資料。即使是一些看似無害的資訊,也可以用來收集我們的個人資訊,如果不能單獨使用,也可以與其他資料結合使用。人形機器人運作過程中黑客會在以下三個方面威脅資料安全:第一,黑客使用技術手段非法擷取各類涉及隐私的資料。無論是存儲還是傳輸的資料,都可能因遭受黑客攻擊而被竊取。第二,黑客遠端操控視聽傳感器擷取隐密視訊影像。視聽傳感器的使用為黑客直接窺視個人私生活提供了便捷通道,敲詐勒索随之而生。第三,黑客遠端操控人形機器人實施破壞行為。虛拟攻擊正從設想走向現實,人形服務型機器人的遠端操控将給我們帶來直接的實體損害。如何防範黑客攻擊,将是人形機器人生産廠商必須謹慎對待的難題。

獲得合法授權或符合法定權利限制情形,是人形機器人内容生成的合法性保障。由于人形機器人使用了人工智能作為底層技術,人工智能生成内容著作權法調整中的問題和對策同樣适用于人形機器人生成内容。對于生成式人工智能的法律規制,存在前端與後端的區分。我們通常關注的主要是後端的問題,也就是輸出端階段生成内容本身的著作權保護。前端的問題,則是輸入端階段内容生成得以實作的前提——資料取得的合法性,也就是協商許可與包括合理使用規則在内的權利限制制度的選擇适用。對此,既有主張改造合理使用制度的,也有主張以“表達型使用”和“非表達型使用”的區分為基礎而證成機器學習行為合法性的,還有主張用法定許可來平衡産業鍊上各方利益,尚未達成基本共識。大陸《生成式人工智能服務管理暫行辦法》第7條規定,生成式人工智能服務提供者,應當“使用具有合法來源的資料和基礎模型”,“涉及知識産權的,不得侵害他人依法享有的知識産權”。上述條文對資料取得的合法性作出了架構式的規定,如何落地,仍然需要進一步的研究。

在人形機器人的複雜技術構成、依指令行動和湧現的随機性這三項因素的疊加作用下,人形機器人侵權行為的責任歸屬變得更加困難。支撐人形機器人正常運作的算法所固有的各種弊端,需要在立法層面努力消除。我們正在從網際網路社會走向算法社會。所謂算法社會,是指“一個由算法、機器人和人工智能代理圍繞社會和經濟決策組織起來的社會”,機器人和人工智能都是算法社會的應用個案之一。但是,算法黑箱使得人類“可能處于一種無從知曉、無力參與、無法異議并最終難以抵抗的‘失控’狀态”。對此,需要建構科學的算法治理機制,引入算法影響評估和算法審計制度,消除算法歧視、資訊繭房等不利後果。湧現的結果部分是不可預測的,這一事實也影響到責任的追究。對于一般的工具,使用人可以對其實施有效的控制,是以,當在其控制下的工具造成他人損害時,使用人應當承擔責任,損害結果與他的控制行為之間存在明确的因果關系,是可以預測的。人形機器人則有明顯不同,由于湧現的出現,使用人對人形機器人的控制能力遠遠沒有一般工具那麼強。在這種預測可能性大大降低的技術背景下,如果還要按照傳統的過錯責任原則來追究損害賠償責任的話,顯然是不适當的。穿透技術的面紗,辨明人類主體在人形機器人行為實施中的角色、作用,結合産業發展的需求,妥當配置設定責任,将是立法者未來需要完成的任務。

結語

在曆經了蒸汽機、電氣化和資訊化三個時代後,人類正在進入工業4.0時代——智能化時代,而智能化時代的基礎技術和應用,就是人工智能和人形機器人。智能化時代人形機器人究竟向何處去,考驗着人類的智慧與決斷。本文認為,人類應秉持人類中心主義的立場:“我們可以堅持一種維護而不是破壞的文化,一種補充而不是取代人類的文化。我們能夠實作并負擔得起一個由人而不是機器統治的世界。”具身使人形機器人進入人類的家庭生活,湧現則讓人形機器人具備有别于人類的強大能力,基于人類中心主義的立場,我們應将人形機器人定位為法律關系中的對象,而不是冒冒失失地将其擡升為主體或受限制的主體。站在道德高地将萬物一視同仁并不會讓我們在處理人類與人形機器人間關系時獲得更好的視角,恰恰相反,缺少目的指引的博愛、泛愛會将人類引入歧途,人形機器人既不是人類的同類,也不是與人類平等交往的法律主體,它們是且隻能是人類創造更美好世界的良好工具。無論技術如何發展,我們都應當保持對自動化技術的警惕和反思。

(本文來源于《東方法學》2024年第3期)

專題統籌:秦前松

繼續閱讀