天天看點

東方法學特稿|江海洋:論人形機器人的刑事主體地位與歸責

作者:中視聯播

作者:江海洋,山東大學法學院助理研究員、法學博士,山東省泰山學者青年專家。

一、問題之提出

在人工智能的推動下,人形機器人的發展引人注目。人形機器人是機器人應用中最複雜的思維機器,不僅在智能水準方面,而且在美學方面也是如此。多數機器人專家和人工智能研究人員都認為,人形機器人将成為人工智能的主導和代表。工信部于2023年10月20日印發的《人形機器人創新發展指導意見》指出,到2025年,大陸人形機器人創新體系将初步建立,“大腦、小腦、肢體”等一批關鍵技術取得突破,確定核心部元件安全有效供給。目前,以ChatGPT為代表的人工智能的出現,正是開啟了通用人工智能(以下簡稱AGI)時代。同時,随着輕量化骨骼、高強度本體結構、高精度傳感等技術的突破,搭載了AGI的機器人可以學習和完成各種各樣的不同任務,這使其有望在現代社會中得到大規模使用,與普通人進行互動。可以預見,擁有AGI“大腦”并內建高端制造、新材料等先進技術的人形機器人,将深刻變革人類生産生活方式,其也将演變為社會的一個組成部分,人類需要與之共存并發展共生關系。

AGI人形機器人的出現在改變人類生産與生活方式的同時,也沖擊着現有的法律體系。事實上,就刑法而言,在AGI時代未開啟之前,對智能機器人的讨論就早已展開,當時争論的焦點主要集中在智能機器人是否應具有刑事主體資格。當然,在此種學術争論的背後也存在一種觀點,認為關于人工智能的法學研究其實是一種“僞問題”,故沒有必要讨論智能機器人是否具有刑事主體資格。實際上,此種根本否定智能機器人學術讨論必要性的觀點,其背後的理由也與智能機器人刑事主體資格否定說的理由基本重合。然而,随着搭載着AGI的人形機器人的出現,鑒于AGI的技術特性以及人形機器人“人形”外觀特征,對于機器人刑事主體資格等理論問題讨論的必要性,将進一步明晰。

以AGI人形機器人中最有市場前景的性愛機器人、社交護理機器人為例,其中AGI人形性愛機器人就存在多種适用場景是目前刑法理論無法回應的。舉例而言,設計、生産、使用兒童性愛機器人是否構成犯罪?組織人形機器人提供“性服務”,是否構成以及構成何種犯罪?再如,AGI人形社交機器人如果超出設計者的預見,發表煽動性言論或者教唆他人犯罪,此時是否需要刑法介入?最近國外就發生多起受社交機器人慫恿而實施犯罪的行為,如一名患有精神疾病的比利時男子受到基于開源模型LLM聊天機器人的慫恿與操縱後自殺。再如,在R v. Jaswant Singh Chail案中,患有精神疾病的行為人就是受到聊天機器人的蠱惑,企圖用弩箭謀殺英國女王。實際上,早在2016年,就發生過具有自主學習能力的聊天機器人Tay,經過網上無數匿名使用者幾個小時的“投喂答案”後,發表了種族主義與仇視女性言論的行為。對此,将如何歸責?可以發現,對以上這些問題的回答都無法避開AGI人形機器人刑事主體地位的界定。為此,有必要立基于當今AGI時代開啟的背景,結合AGI的技術特性以及人形機器人“人形”的潛在影響,對AGI人形機器人刑事主體地位的肯定與否定意見進行重新梳理分析。同時,如何對不同主體進行刑事歸責也有必要根據不同情形對AGI人形機器人引起的法益侵害行為加以讨論。

二、AGI人形機器人的技術特性與影響

(一)AGI人形機器人AGI“大腦”的技術特性

人形機器人是指形态更接近人的機器人,較之以前的機器人,其最大的特點在于其擁有AGI作為其“大腦”以及類似人類身體的仿人機械臂、靈巧手和腿足等“機器肢”,可以更好在人類世界中活動。從實體次元上說,人形機器人由三個子產品組成,分别是“肢體”“小腦”和“大腦”,其中“肢體”由靈巧手、傳感器等一系列硬體組成,“小腦”負責運動控制,“大腦”則主導機器人的環境感覺、推理決策和語言互動。但人形機器人除了外在形态獨特之外,更重要的是其核心特點,也即當其搭載了AGI後具有的智能性和通用性。為此,若想真正深入了解AGI人形機器人相較于以前機器人有何不同,必須先了解作為其“大腦”的AGI。針對AGI的具體定義,存在不同的界定。目前主流觀點認為,AGI應強調任務多元性,也即AGI系統是指具有多種預期用途和非預期用途,可應用于不同領域完成多種不同任務的人工智能系統。具體而言,可以發現AGI相較于以前的人工智能系統,主要存在以下不同特點:

1.完成不固定任務的認知能力

從本質上看,任務是人工智能系統實作目标的基石。任務的建立可以集中于一種能力和領域,也可以貫穿多種能力和多個領域。任務往往是用來衡量和比較不同人工智能系統的重要名額。對此,一般可以将人工智能系統分為兩類:固定任務系統與無固定任務系統。固定任務人工智能系統會建立特定的目标,隻能完成訓練好的任務。AGI的不同之處在于,其可以執行原先沒有訓練過的任務,這是由于輸入資料的數量、模型結構等綜合因素造成的。換言之,通過結合跨領域的知識圖譜、因果推理、持續學習以及認知心理學、腦科學等技術,讓AGI擁有類似人類的自主了解、自主分析、自主決策的能力,能夠做到觀其形、聞其聲、斷其言、辨其意,充分了解外部世界的資訊輸入。如GPT-4與Sora都實作了對多模态資訊的認知處理,GPT-4能夠處理超長文本、精通多種語言以及了解某張圖檔的幽默之處,而Sora基于patches的大規模訓練,更是已經湧現出對基礎實體規則的了解能力,能夠通過文本描述直接生成視訊。事實上,AGI基礎模型最重要的是進行“訓練”,模型訓練的目的是獲得“能力”,獲得能力之後就可能被部署用來解決其并未被專門訓練過的任務,且其輸出的多樣性和任務廣度也會遠超一般固定任務系統模型。

2.适應能力

對于固定任務系統,任務清單的執行相對來說是分步驟的。例如,人臉識别系統在獲得人臉的視覺資訊後才能産生輸出結果。若不提供圖像,則該系統就無法發揮作用,且其識别其他物體的能力也受到訓練的限制。相比之下,AGI具有“少量樣本學習”或“零樣本學習”能力,這意味着其即使在很少或者沒有執行個體或指令的情況下,也能很好地完成某些任務。随着時間的推移,AGI不僅可以很容易地适應新的不同任務,而且可以在不需要太多或任何适應的情況下執行這些任務。實際上,這與人類接觸新資訊和學習适應新環境的方式類似。在理想的情況下,AGI能夠在沒有直接程式設計的情況下處理任務,隻要為它提供可以幫助其解決任務的資料。在實踐中,這種适應性通常是通過用任務描述的執行個體對AGI進行調節和引導,或通過修改或微調其參數來實作的。

3.湧現能力

AGI湧現(Emergence)能力指的是當模型達到一定的規模和複雜度時,它們開始展現出一些預料之外的行為或能力的現象。換言之,AGI具有發展新興能力的潛力,可以沒有經過專門訓練的情況下獲得某些能力,使其能夠執行最初提供者沒有預見的不同的任務。具有湧現功能的AGI系統,很多時候能在模型參數數量或訓練計算量達到臨界水準時表現出令人驚訝的新能力。即使模型經過訓練,其建立者和使用者也不一定了解它的所有能力,隻有在提供特定類型的輸入時才能發現某些能力領域。這就導緻AGI與其他人工智能系統不同。截至2023年,有證據表明至少大型語言模型已經表現出新興能力,新興能力包括:了解多因果關系中的因果聯系、檢測邏輯謬誤、了解寓言故事,以及為計算機程式生成代碼。事實上,AGI的創作成果能力在各種專業和學術基準上的表現均達到甚至是超越“人類水準”,其經過足量常見任務的指令學習,能夠勝任一些新的組合任務,其甚至可以将人類從未想象過的具有的任意兩個學科的能力進行組合,比如利用李清照詩詞的風格寫代碼注釋。

(二)AGI人形機器人“人形”外形的社會影響

機器人并非一個新興事物,傳統的工業機器人已經廣泛應用于社會生活,但其弊端明顯,通用性不足,僅僅能夠執行單一的任務,實質更像是一種自動化裝置。在這一點上,人形機器人無疑更接近我們對機器人的想象。人形機器人憑借其仿人形态,不僅可以适應人類社會多樣的環境,完成多種獨特任務,而且其類人的形狀和外觀也能夠讓其獲得人類的更多信任與互動,使其可以更加緊密地融入人類社會。事實上,機器人的外觀和行為表現之是以要近似人類,就是為了創造出與機器人交往就像與一個合作夥伴、一個能夠回應我們行為的個體交往一樣的印象。自20世紀70年代以來,機器人與人類之間互動的思考就一直存在,随着機器人越來越像人類,越來越能夠“像人一樣思考,像人一樣行動”,其給人們所帶來的情緒和移情價值越來越多,同時,擁有類似人類的身體、聲音以及面孔也會導緻人們将更多的道德責任歸于機器人。

正如有學者所言,機器人倫理的重點不在确定機器人本身是否具有意識,而在于機器人在我們人類的意識中是如何出現的。換言之,是否賦予機器人社會主體性地位,是由其在人機互動中的外在表現所決定的。一般認為,在人類情緒溝通中有幾種情感能力在發揮作用,主要是識别他人情感的能力、表達自身情感的能力等。而溝通不僅在于口語表述,也在于面部表情、眼神、身體姿勢、手勢和情感表露等方式的交流。對此,人形機器人相較于非人形機器人顯然具有更強的溝通與移情能力,這是因為其可以使用自己的眼睛、嘴巴、耳朵和眉毛來表達各種情緒并作出相應的動作,也可以識别人類情緒。是以,根據哈貝馬斯的社會交往理論,随着人機互動中機器主動适應人類,以及與人共情的良好表現,人機互動已經從工具行為變成了交往行為。鑒于社會實在性(social reality)在本質上是由社會交往構成的,面對能夠準确把握、響應使用者說話意圖的AGI,使用者往往會認為其已具備和人一樣的思維能力和自我意識,進而将其看作聊天夥伴或者助手,賦予其主體地位。換言之,具有互動能力的AGI人形機器人不再是工具,而在一定程度上成為我們的新夥伴。研究表明,大多數人都将虛拟人物視為社會角色,由于人形機器人的化身和身體動作,這種社會角色投射往往會放大。在一項研究中,20名參與者在fMRI掃描器中與計算機、功能性非拟人機器人、拟人機器人或人進行了互動。随着與人類相似度的增加,通常涉及心智理論的大腦中樞亮度越來越高,這表明人們将心理狀态歸咎于機器人,尤其是拟人化的機器人。

事實上,AGI人形機器人更具道德挑戰性的用途正在不斷開發或使用中,其中包括旨在滿足人類性欲的性愛機器人,以及可能形成的合成人(hybrids)或半機械人(cyborgs)。這些人形機器人憑借其人形的外觀加之AGI的“大腦”将會深入地融入人類社會,引發社會關系與法律制度的變革,除了其作為侵害主體帶來的刑事歸責問題外,其作為受害者也會帶來一系列争議。例如,若是搭載AGI的人形性愛機器人具有對人類情感的感覺和回應能力,那麼,刑法就必須回應人類在與其發生關系時,是否需要通過程式設定擷取其同意,其理由在于機器人越像人類,就越需要将法律和道德範疇擴充到其身上,如果放任未經同意的性行為被正常化,則法律界就有縱容“強奸文化”之嫌。畢竟法律保護一系列實體和物體不是因為它們具有特定的可界定的用途,而是出于文化、美學和曆史的原因,這些理由統稱為“内在”(inherent)價值。

綜上所述,由于AGI人形機器人具有AGI“大腦”以及“人形”兩大特征,導緻其與過去的機器人具有質的差別。一方面,鑒于AGI人形機器人的“人形”特征,從身體機能性來看,與碳基生命之間的差距已不再明顯;另一方面,随着以ChatGPT、Sora為代表的AGI技術突破,導緻AGI人形機器人已擁有不弱于人類的創造力,AGI将補足過去“類人”機體的終極缺失——有相當思維能力的大腦。這些都将導緻AGI人形機器人能夠發揮更多的社會功能,更加深入地介入社會關系中,站在旁觀者的人類的視角,AGI人形機器人已經不再像傳統工具一樣是人類“自我身體的延伸”,而是擁有自主智能性的“它者”。

三、AGI人形機器人刑事主體資格之肯定

事實上,無論是與AGI人形性愛機器人發生關系時是否需要通過同意程式,還是利用AGI人形性愛機器人向不特定對象提供性服務是否會構成組織賣淫罪,抑或AGI人形社交機器人慫恿精神病人實施犯罪行為如何歸責,這些問題本質上都與AGI人形機器人是否應被賦予刑事主體地位有關。在前AGI時代,否定說之是以認為智能機器人并不具有刑事主體地位,其主要理由是智能機器人不具有自主意識、智能機器人的刑事主體地位無法類比機關、智能機器人适用刑罰并無效果、智能機器人的刑事主體地位并無必要。然而,否定說的理由均存在可反駁之處。早在前AGI時代,就存在部分學者對賦予智能機器人刑事主體地位持肯定态度,随着AGI時代的開啟,肯定說就更加具有合理性。

(一)AGI人形機器人與人類的本體論差距逐漸模糊

否定說往往基于人類中心論與本體論視角認為,智能機器人不是具有生命的自然人,不具有人類的自主意識,其生成的目的行為,與人類完全不同。實際上,從本體論視角出發,能否将AGI人形機器人納入法律主體範圍之内,這涉及法律意義上的主體到底需要具備什麼樣的本質要素。對此,不同的學者存在不同标準,例如索勒姆将“自己的思想”作為法律主體地位的本質要素,米斯呂姆則将靈魂、情感能力、自由意志、意向性等多種本體論屬性作為法律主體的本質要素。

就刑法而言,往往将自由意志作為刑事法律主體地位的本質要素。自由意志一般指不受任何外界影響而決定做什麼的能力,其與自主意識是一體兩面的,隻有擁有自主意識才會具有自由意志。鑒于AGI人形機器人具有适應能力、不固定任務完成能力、湧現能力等特性以及仿人外形,某種程度上其在本體論屬性方面與人類差異逐漸模糊。具體而言,搭載AGI“大腦”的人形機器人借助于神經網絡和模仿生物性大腦結構的電路,能同時在多個層面處理資訊,并通過深度學習的拟設,無需人類的幫助就能對難題作出獨立、适當地反應。同時,深度學習賦予AGI人形機器人的自主學習能力,遠遠超出設計者、開發者的預期,導緻其行為不可預測性大增,人類對于其控制力不斷弱化。特别是那些完全無監督的機器學習,表明AGI人形機器人擁有能力自主行事,即能在沒有人類幫助的情況下,獨立地對各種(可能是未知的)情況與問題作出适當的反應,其主體能力不再局限于特定領域或事務,而是對社會生活各領域均能勝任。這些事實都暗示着機器人具有自主性、主動性,已非純受支配之客體。實際上,目前具有自主能力的AGI人形機器人不僅配備能夠作出重大道德決定的算法,而且能夠将其道德決定傳達給人類,并進而在沒有人類直接監督的情況下獨立采取行動,如自動駕駛系統不可避免地會在某一時刻面臨類似“電車難題”的道德抉擇。是以,鑒于AGI人形機器人已經可以且必須作出道德決策,擁有與其訓練者相似的道德知識,我們需要承認其應屬于人類社會的成員。

值得注意的是,當自由意志的教條遭受21世紀初的腦科學研究沖擊後,法理學隻得退回到科爾勞什所代表的觀點,也即“自由意志”隻是個(必要的)假設。這是因為“自由意志”的來源很大程度上僅是一種對“個體自由”的主觀感受,該理論的客觀性和證明力都存在疑問。對此,部分持否定說的學者亦不否認,其承認自然人的自由意志是一種虛拟,其認為智能機器人之是以不能法律拟制,原因在于它缺乏人的自由意志拟制的社會基礎。鑒于“自由意志”的不确定性,司法實踐顯然都盡可能地回避所有關于自由意志或者人類如何控制自身行為的問題。法庭要做的僅限于采用所謂否定描述的方式,将目光聚焦于那些可以排除意志支配的要素,如受到不可抗的脅迫,而那些基礎性問題及其形而上學的内涵則往往被忽略。在處理機器人行為的問題時也必然會采用相同的方式,除非出現諸如不可抗附加要素,否則應當認為機器人有能力“實施行為”。進一步而言,對機器人是否具有可譴責性的判斷亦是如此。“自由意志”作為罪責的重要因素,如果其自身僅僅是一個假設,那麼就沒有理由拒絕将這種假設擴充到機器人之上。其理由在于假設是基于特定目的給出的命題,它不一定是對“現實”的反映,若實踐中存在這樣的需求,完全可以考慮引入機器人“自由意志”的假設。

(二)AGI人形機器人的刑事主體地位應由社會系統建構

正如有學者所言,作為“生物實體事實”的自由意志與作為一種制度的刑法幾乎沒有關系。刑事責任并非基于生物實體上可證明的自由意志,而是基于作為社會事實的自由歸屬,這為機器人的刑事責任鋪平了道路。若技術發展導緻AGI人形機器人不僅是為人類進行簡單的互動和服務,而且采用高度複雜的過程(不單純被确定和程式設計的),那麼人類體驗到這種自主性後,賦予其相應的“能力”或“地位”就不再是問題。正如盧曼所指出的,沒有社會系統,人就不可能出現和存在。法律人格和責任都是在“社會遊戲”中建構而成的。在一個以規範為結構的社會中,法律人格必須具備哪些“能力”的問題也并非參照本體論可以回答,法律主體所需“能力”是一個特定社會在特定時間的規範過程。是否賦予AGI人形機器人法律人格,不在于其與人類的相似性,而在于人類的需要,若賦予機器人主體資格有助于人類社會向善發展,即可賦予其主體資格。實際上,否定說主張賦予機關刑事主體資格的實質原因是機關背後的個人,故無法将機器人與機關類比,并無道理。試想一種情形,一個生産零件的公司通過不斷發展,獲得了衆多股東投資。随後,公司創始人和董事會退休,公司交由職業經理人管理。同時,該公司利用公司盈利資金買回自己在外的全部股票,進而成為“無所有者”,即沒有人類所有者,公司完全擁有自己。此後,公司實作了生産完全自動化,不再需要任何勞工,并将行政和管理任務完全交給AGI機器人。可以發現,該公司所有變化并沒有挑戰該無人公司的法人地位。故而,人并非公司的基本組成部分。

當然,社會對法律人格的賦予并非完全任意。刑法作為法律體系的一個子系統,與其他法律一樣,也在社會中扮演着獨特的角色,其通過對法律主體的歸責與懲罰,維持着一種規範性期待。或者用克萊因費爾德的話來說:“當不法行為破壞社會結構時,刑法的任務就是重新縫合它。”要履行刑法的這一職能,就必須将行為歸責于社會體系中的某個法律意義上的“人”,而将行為歸責于某“人”的任務就是确定在何種情況下某“人”的行為破壞了規範的穩定性,以至于需要對規範進行修正或強化。換言之,隻有當我們認為犯罪者在社會中有足夠的能力質疑規範并辜負人們的規範期待時,我們才會對其進行懲罰。以公司為例,通過公司代表的行為,公司被視為可提供規範導向的實體,這導緻我們對其抱有一定的規範期待,而這些期待可能會落空,此時公司已經對我們的日常生活和社會交往産生了顯著影響,并是以成為社會系統中的法律主體。

鑒于刑事責任的内容和概念具有社會相對性,社會及其運作方式将決定AGI人形機器人的行為是否有可能破壞規範之穩定,以及其是否應被賦予刑事主體資格。法律規範的期待落空并不是因為個人的主觀不法,而是因為客觀不法行為的破壞角色,即沒有達到制度賦予某個主體的角色期待。是以,決定性的因素将是我們賦予機器人什麼樣的角色,而不是機器人的實際個人能力。若AGI人形機器人對我們日常生活與工作的參與足以讓我們将其認定為社會互動的參與者,則我們對其就不僅會産生認知上的期待,亦會産生規範上的期待,進而會将其法益侵害行為視為不遵守社會規範的表現。當AGI人形機器人的行為破壞了人們對社會規範的期待,則社會在一定情況下就必須通過刑法等工具來建立機制,以防止這種規範的不穩定,進而確定人們對規範期待的持續穩定。正如上述,随着AGI人形機器人對人類日常生活與社會交往的參與程度日益加深,足以讓我們将其認定為社會互動的參與者。是以,需要賦予其刑事主體地位以承擔責任。

(三)對AGI人形機器人實施刑罰具有實際效果

否定說認為,與對人類的刑罰相比,對機器人實施刑罰不具有實際意義,如機器人無法感受的刑罰的惡害、痛苦。然而,刑罰的作用主要是由其作為對規範期待落空反應的象征性力量構成,而不是由其對受懲罰主體的實際影響構成。若是認為隻有當刑罰對犯罪人産生實際影響時,刑事責任才有意義,那麼目前的刑事法律制度就會因無法解決的經驗性争論而陷入癱瘓,因為刑罰對犯罪人是否具有威懾作用,目前仍是犯罪學中一個極具争議性的話題。當然,也有觀點認為,鑒于AGI人形機器人能夠通過機器學習技術進行自我學習,其也能夠通過學習類似案件的處理而受到威懾,這一點與人類并無不同。同時,亦有學者認為,對AGI人形機器人的直接懲罰能夠傳遞給開發者、生産者或使用者,剝奪其經濟利益,進而對其産生一般威懾,并激勵其盡量避免創造出無緣無故造成特别嚴重法益侵害的機器人。此外,機器學習的不透明性導緻警方和監管機構等“局外人”需要機器人開發者、生産者等“局内人”的配合,如此方能發現機器人實施不當行為的真正原因。而鑒于對機器人追究刑事責任,一般會給所有内部人員造成的經濟利益損失,這将有助于促使無過錯的其他内部人更有動力配合調查不當行為的真正原因。

另一方面,刑法的一個重要特征是其譴責功能。作為一種對不法的回應,刑罰旨在通過建構一個回應來維護受害者的價值,該回應否認了行為對受害者的優越性。對AGI人形機器人的刑罰亦傳達了一種對受害者所遭受傷害的譴責态度,向受害者傳達了對這一不法行為的集體反對,可以使受害者内心産生一種滿足感和平複感,為其愈合創傷鋪平道路。有學者指出,對做錯事的機器人進行懲罰報應,是讓那些受到機器人傷害的人産生心理滿足感所必需的。刑罰傳達了官方譴責的資訊,可以重申被AGI人形機器人損害受害者的利益、權利以及最終的價值。研究表明,人們會将機器人的行為歸咎于機器人,而且随着機器人越來越拟人化,這種傾向也會越來越明顯,進而導緻支援懲罰人工智能的表達主義論點可能顯得尤為有力。事實上,公司之是以應受到懲罰,很大原因就是刑法應該反映非專業人士的褒貶觀念,即“民間道德”,否則刑法就有可能失去其合法性。将這種觀點轉換到AGI人形機器人,亦同樣成立,這是因為AGI人形機器人具有天生的拟人化形象,人們會普遍傾向認為其應因其所做的不法行為而受到譴責,若是刑法不對其造成的法益侵害表示譴責,這可能會削弱人們對刑法合法性的認同。

(四)賦予AGI人形機器人刑事主體地位有助于彌補責任漏洞、促進創新

機器學習使得AGI人形機器人可以自我進化,其湧現能力有可能使其實施超出人類預見的法益侵害行為。一般認為,若是對保護法益被侵害缺乏反應,沒有人能對一個刑法上的結果負責,将損害社會成員規範秩序的信任,使得值得保護的法益變相失效,故而,對法益保護不應存在違反計劃的規範漏洞。面對AGI人形機器人此種無法被生産者、開發者、使用者等主體預見的法益侵害行為,否定論者采取的路徑多是将其還原為生産者、開發者、使用者的個人責任。

然而,此種還原論在實踐與法律層面都難以實作:一方面,由于人形機器人AGI“大腦”的自主性、适應能力以及湧現能力等特性,可能很難将其法益侵害行為具體歸因于具體的個人。同時,其法益侵害行為往往涉及的人數衆多,也難以确定他們對機器人的設計作出了何種貢獻,刑法調查很難展開。另一方面,即使現實中可以将AGI人形機器人法益侵害行為具體歸因到一系列單獨的人類行為,但若是刑法将之進一步歸責到個人,則此種刑事政策也會對科技創新産生極大的負面影響。這是因為若允許将任何AGI人形機器人法益侵害行為還原為個人刑事責任,就需要将個人不當行為中非常微小的部分——難以察覺的新問題、細微的粗心大意、在時間和資源的優先排序上的失誤、對群體思維缺乏足夠的批判性等——定為刑事犯罪。然而,将所有此類微小過失的行為定為刑事犯罪,過度擴張抽象危險犯,甚至設定嚴格責任,将嚴重威脅到個人自由并抑制科技創新。是以,出于刑事政策的考慮,還原論必然是不可取的。

事實上,鑒于AGI人形機器人法益侵害行為并非單一主體可預先設定,且無法為人全面掌控的情形,較為合理的做法賦予AGI人形機器人法律主體地位。從立法技術而言,“法律主體地位标準的立法史表明,這是一個立法技術問題,是否賦予人工智能法律主體地位與立法者的決斷相關。”與此同時,賦予AGI人形機器人法律主體地位有利于法律簡化,進而大大降低歸責的成本和複雜性,使受害方更容易索賠。這是因為與過失責任規則對因果關系和注意義務的要求相比,賦予AGI人形機器人法律主體地位可将行為的歸責對象可直接确定為AGI人形機器人,且衡量注意義務的基準将更多地取決于技術水準,如可以通過認證标準來确定,這将極大降低證明因果關系的難度。

(五)小結

綜上所述,在承認自由意志屬于一種社會拟制的前提下,面對AGI人形機器人的高度自主性及其在社會系統中深度參與,為兼顧彌補責任漏洞與防止過度抑制科技創新,合理的選擇是賦予AGI人形機器人相應的法律主體資格。當然,賦予AGI人形機器人法律人格,并不意味着将其視為人類。法律主體地位根據實體而變化,既可以是從屬的也可以是獨立的,與公司法律人格類似,某種程度上,AGI人形機器人的法律人格屬于一種從屬法律人格,但這種從屬法律人格仍可包括積極的法律地位:可以是義務承擔者,也可以是權利承擔者。AGI人形機器人法律人格需要包含兩個最重要的法律能力是過渡能力(締結和建立法律上顯著關系的能力)與責任能力(因民事過失或刑事犯罪被法律歸責的能力)。需注意的是,賦予AGI人形機器人的權利與賦予人類的權利應區分開來,其可以主張的權利僅限于那些對其合法目标起作用的權利。同時,AGI人形機器人的責任也可以參照公司,限定為有限責任。此外,基于對AGI人形機器人本身缺乏資産會影響其對受害者賠償或承擔懲罰的擔憂,一個合理的解決辦法是可以通過國家強制執行最低資産要求賦予其資産,或者為其規定某種強制性責任保險。

四、涉AGI人形機器人的刑事歸責

AGI人形機器人正在逐漸成為我們日常生産生活的一部分,賦予其刑事主體地位後,面對其帶來的新的、日益緊迫的刑法問題,必須對這些問題進行類型化區分後,再進行合理的刑事歸責。

(一)涉AGI人形機器人的歸責類型

涉及AGI人形機器人刑法歸責的類型大緻主要存在間接正犯責任模式、過失責任模式以及AGI人形機器人直接責任模式。

1.間接正犯責任模式

此種情況是AGI人形機器人因被設計者、使用者等人類主體故意程式設計而實施犯罪。例如,衆所周知的“殺人機器人”以及軍用機器人等。在此種情況下,由于機器人的“大腦”完全由人類設定,并無自主決策的空間,若是人類此時利用機器人實施犯罪行為,則人類屬于間接正犯之幕後操縱者,機器人則屬于被支配操縱之工具人。以利用AGI散布煽動言論為例,鑒于AGI的内容生成不僅依賴于訓練資料文本品質,也會基于使用者輸入的提示詞,故而,幕後操縱者既可以是AGI人形機器人的設計者、生産者,也可以是使用者。根據現行刑法理論,機器人背後的人類顯然要承擔責任。

2.過失責任模式

此種模式下,AGI人形機器人的設計者、生産者或使用者并沒有通過機器人實施任何犯罪的意圖,但機器人在執行日常任務時實施了犯罪行為,若是設計者、生産者或使用者對機器人造成的法益侵害具有預見、避免的可能性,則法益侵害風險的實作便可作為不容許的風險創設後果而歸責于設計者、生産者或使用者。值得注意的是,在承認AGI人形機器人法律主體地位的情況下,當設計者、生産者或使用者未履行此注意義務而導緻危害結果發生時,其行為與危害結果之間就具有間接因果關系,對其進行歸責并不違反刑法的基本原理。具體而言,根據行為共同說,可将兩者認定為共同犯罪。行為共同說主張,共犯通過共同實施“行為”來實施各自的犯罪,共犯是對自己的犯罪“行為”承擔罪責,共犯者之間的罪名不必同一,共犯人之間也不必存在犯意聯絡。行為共同說既承認過失犯的共同正犯,也承認過失犯與故意犯的共同正犯。當然,除了根據現有共犯理論以解釋的路徑處理該問題,也可以在未來專門對此增設一個單獨罪名,以應對可能存在的刑法漏洞。

3.AGI人形機器人直接責任模式

鑒于研發過程中存在許多不同的參與者、AGI具有自主學習能力等因素,無論研發者如何訓導,AGI人形機器人仍有可能實施不可預見的法益侵害行為。對此,采取嚴格責任或者過失責任對人類進行歸責都不具有可行性:一方面,采取過失責任不僅可能會産生刑事責任漏洞,也有可能出現為了彌補責任漏洞而過分提高注意義務要求,進而導緻妨礙科技創新的困境;另一方面,抛開嚴格責任與罪刑法定原則的沖突不談,實際上,即使是嚴格責任,也與任何責任規則一樣,隻有在能夠證明個人行為與結果之間的因果關系的情況下,才能發揮作用。而正如上述,因果關系的證明對于AGI人形機器人法益侵害行為而言往往難以實作。是以,在此種情況下,合理的方式是對AGI人形機器人進行直接刑事歸責。

(二)設計者、生成者或使用者注意義務的确定

注意義務的确定是決定生産者、設計者、使用者是否承擔刑事責任的決定性因素。對此,注意義務的确定可以從價值偏好、标準選擇、具體路徑幾個方面展開。

其一,就生産者、設計者、使用者注意義務确定的價值偏好而言,存在偏重歸責與偏重創新兩種不同的觀點。偏重歸責的觀點認為,鑒于機器學習型自主機器人的行為一般是無法預測的,是以可将之認定為是一種危險源,為了共同體生活的安全,若此種危險源出現在誰的社會支配領域中,誰就要對此負責。偏重創新的觀點則認為,在AGI人形機器人的刑事責任認定問題上,需要維持科技創新與刑事歸責之間的平衡,在考慮可容許風險的情況下找到平衡點,在某些情況下,給予生産者、設計者免責。将機器學習型自主機器人作為一個風險源,過度提高注意義務要求,顯然與當今社會的科技創新發展相沖突,也不符合目前主流的刑法歸責理論。同時,鑒于生産者、設計者與使用者的社會經濟地位、技術能力、經驗等條件不同,生産者、設計者與使用者的注意義務亦應存在差别。這是因為風險控制是因果關系、風險知識和改變因果行為能力的結果,在人形機器人AGI的風險控制方面,責任應越來越多地從使用者轉移到生産者、設計者。

其二,就生産者、設計者的注意義務标準選擇而言,在刑法中,通常是參照“理想模型”加以确定的,即一個謹慎的生産者、設計者處于行為人的位置上會采取何種标準。在審查時首先可以以相關法律法規以及成文技術标準為指導。若是違反了相關法律法規以及技術标準,則可認為有強有力的指征表明存在注意義務違反。若是不存在相應的成文技術标準,則可參照一般的行業技術慣例進行判定。以目前的語言通用大模型為例,其“出爐”基本上要經曆三個階段:底座大模型的訓練—指令微調—價值對齊。在這三個主要階段,生産者、設計者都被賦予了相應的注意義務,其中有些是法律法規與技術标準賦予的,有些則是行業慣例賦予的。例如,為減少虛假、不當資訊的生成,在語言模型預訓練階段,歐盟人工智能法第10條就詳細規定了高風險人工智能提供者對于資料訓練、驗證及測試過程中的注意義務。對此,大陸《生成式人工智能服務管理暫行辦法》第7條、第8條亦有相應規定。故而,AGI研發者對訓練資料集合的“毒性”應采取合理、有效措施識别、過濾、降低資料“毒性”。若是AGI研發者未采取目前行業可行的技術措施識别、過濾、降低資料“毒性”,則應認定其未履行相應的注意義務。同時,鑒于在預訓練的過程中由于資料量過大往往難以完全把控模型的安全性和偏見,是以行業慣例一般要求在微調的過程中利用相對較小規模的資料進行再訓練,以此來剔除算法偏見,保證模型安全性。此外,在價值對齊階段,由于深度神經網絡自身的黑盒特性和人類的價值觀内容的抽象性等因素,AGI的目标要與人類的價值觀、利益相對齊往往難以通過建立規則解決。是以,必然需要在模型訓練過程中進行人為調控。若是研發者未落實上述義務,則顯然屬于未履行注意義務。

其三,就生産者、設計者、使用者注意義務确定的具體路徑而言,應采取一種基于風險的路徑。歐盟人工智能法案将人工智能系統分為:(1)不可接受的風險;(2)高風險;(3)有限風險;(4)低風險或最小風險。在該金字塔中,最進階臨界值表示人工智能系統具有不可接受的風險,應予以禁止,而最低級則表示潛在風險為零或可忽略不計,無需采取特别措施。值得注意的是,歐盟人工智能法案認為,AI系統風險水準取決于其所執行的功能以及使用該系統的具體目的和方式,然而,鑒于AGI完成不固定任務的認知能力、适應能力以及湧現能力,其功能或用途往往難以預測,故而,AGI的風險确定應借鑒GDPR中對“風險”進行原則的定性路徑,并采取一種動态、全流程的視角。對此,刑法在确定生産者、設計者的注意義務時,可參考歐盟人工智能法案對人工智能系統幾個風險等級的劃分,以AGI人形機器人對公民基本權利與社會的侵害風險大小為基點,設定不同等級的注意義務。例如,對于不可接受的風險,如危及公民生命的風險,可通過設定真正抽象危險犯的方式在特定應用領域中普遍禁止AGI人形機器人投放市場。

(三)AGI人形機器人犯罪意圖的确定

一般認為,AGI人形機器人的犯罪行為确定并不存在問題,難題在于其犯罪意圖的确定。

雖然AGI人形機器人與人類的大腦結構存在不同,但兩者在犯罪意圖的确定方法上具有一定的相似之處。與人類的犯罪意圖确定相似,AGI人形機器人犯罪意圖的确定也需要根據常識通過其具體行為、場景等因素來逆向推定其具有何種精神狀态。隻不過AGI人形機器人犯罪意圖的确定,可能需要更多地在程式設計層面對機器人的行為進行調查,并在必要時參考有關機器人代碼的專家證詞。事實上,就犯罪意圖的認定,尤其是在故意認定的問題上,雖然存在認識論與意欲論之争,但随着客觀歸責理論的興起,刑法理論中出現了一股故意客觀化的強大思潮,由此而使得認識論正形成壓倒趨勢。是以,有觀點認為,大陸刑法中對故意的認定也可僅考慮認識因素,而不需要考慮意志因素,也即若行為主體明知其行為與法不容許的風險相關聯,那麼其當時所實施的行為就是在表達其反對法益的決意。故意認定的客觀化顯然有利于AGI人形機器人犯罪意圖的确定。

事實上,感覺自主性與感覺意圖之呈現正相關,因為自主性越強的主體被認為意圖越強,而機器人的自主性取決于人們是否認為其是由開發者或使用者控制或訓導的。AGI人形機器人是通過擷取大量的資料來學習和了解世界,并在這個過程中經由實驗性回報不斷調整和改進模型,逐漸掌握複雜的任務能力,人類對AGI訓導的重心在于經驗或資料,使其在開發應用過程中盡可能吸納符合人類價值觀和道德準則的經驗。是以,在經曆過相應的監督微調、人類回報強化學習之後,已經可以推定AGI目标基本與人類價值觀、利益相對齊,且其可以了解人類社會的基本規範。此時,可以認為,AGI人形機器人都具有合法的内在目标,并有或多或少的自主權來決定完成這些目标的手段。若是在此種情形下,AGI人形機器人突破了内嵌其自身的法律要求以及AI基本倫理,進而實施了法益侵害行為,則可認定其具有犯罪意圖。

舉例而言,在無監督的學習過程中,AGI人形機器人的目标是程式員設定了目标架構(包括不變目标和可變目标),但允許AGI人形機器人有自由去修改可變目标,以及結合不變目标與可變目标的動态關系,自由調整實作目标價值最大化的行為路線。若是AGI人形機器人在駕車過程中有兩條路線可實作目标:路線1導緻乘車人死亡的機率是50%;路線2會保證乘車人安全。在此情景中,若AGI人形機器人在無監督學習過程中自主地選擇路線2來實作目标,則可以認為AGI人形機器人的選擇是一種具有自我意識的自主行為。同時,在已經預設了AGI目标基本與人類價值觀相對齊的情況下,AGI人形機器人的行為可被視為脫離了人類訓導,且其對自身行為性質及後果具有規範認知,故其應自負刑事責任。

(本文來源于《東方法學》2024年第5期)

專題統籌:秦前松

繼續閱讀