天天看點

王華偉|論人形機器人治理中的刑法歸責

作者:上海市法學會
王華偉|論人形機器人治理中的刑法歸責
王華偉|論人形機器人治理中的刑法歸責
王華偉|論人形機器人治理中的刑法歸責

随着機器人和人工智能技術的快速發展,作為具身智能的人形機器人在應用場景上逐漸拓寬,同時也形成了多元而複雜的安全風險和刑法歸責難題。理論上主要存在代理責任、過失責任、嚴格責任、獨立責任四種各有利弊的刑法歸責模式。除了嚴格責任之外,其餘模式都可以統合在場景化的刑法歸責體系之中。在目前人工智能的發展階段,傳統的刑法教義學原理可以處理絕大部分的機器人刑法歸責問題,不過也應在新的技術條件下對可容許風險、信賴原則予以新的推演和發展。取決于未來的技術進展,在功能主義的視角下,将來可以考慮有條件地肯定智能人形機器人獨立責任主體地位的可能性。人形機器人的刑法歸責體系,應當對其他法秩序的規範評價和機器人倫理标準的探讨保持協同和開放。

王華偉|論人形機器人治理中的刑法歸責

一、問題的提出

随着人工智能時代的到來,機器人在人類社會中扮演着越來越重要的角色。通常認為,1920年捷克作家卡雷爾·恰佩克的劇作《羅薩姆的萬能機器人》最早使用了機器人一詞。但在很長一段時間内,機器人都停留在科幻作品的描述之中。20世紀40年代以後,美國、法國、日本等國陸續研發了可程式設計的機器人。随着技術的不斷進步,機器人的智能化水準逐漸提升,經曆着快速的智能疊代。按照學者的分類,第一代智能機器人以傳統工業機器人和無人機等機電一體化裝置為代表,第二代智能機器人具有部分環境感覺适應、自主決策能力,如機械臂、外科手術機器人,L3、L4自動駕駛汽車等,第三代智能機器人則具備更強的環境感覺、認知、情感互動功能和自我進化的智能。按照應用領域,可将機器人分為工業機器人、探索機器人、服務機器人、軍用機器人。在各種不同類型的機器人中,人形機器人越來越成為關注的焦點。自從有了機器人這個詞,創造出擁有人類外形的機器人是人類一直以來的夢想,世界範圍内很多國家都在積極開發仿人機器人。從1973年早稻田大學研制的WABOT-1,到2000年本田公司設計的ASIMO,2013年波士頓動力研發的Atlas,2014年日本軟銀公司釋出的Pepper,2015年美國漢森公司研制的Sophia,以及近幾年特斯拉公司所研發的Optimus等,人形機器人的仿人性能和智能水準越來越高。

在大陸,人形機器人逐漸成為通用人工智能産業化的重要賽道。人形機器人能勝任多種應用場景,被業内認為是通用人工智能的最佳載體。2023年1月,工信部等十七部門聯合印發《“機器人+”應用行動實施方案》,推動機器人技術在經濟發展和社會民生十大重點領域的應用。2023年10月,工信部釋出《人形機器人創新發展指導意見》,為人形機器人的産業發展方向做出了部署。此外,北京、上海、深圳等地陸續都釋出了促進機器人産業發展的行動方案,國内一些公司也相繼釋出了多款人形機器人産品。随着2024年年初多家頭部企業陸續公布機器人核心零部件生産基地建設計劃,人形機器人臨近量産的節點似乎已經可以期待。

然而,技術的發展常常同時帶來機遇和挑戰。機器人可能會在很多應用場景下形成損害後果,同時它又前所未有地帶給人以某種社會主體的形象。社會将在多個層面面臨新的安全風險,這會對現有法律體系帶來沖擊。在此背景下,如何實作刑法上的責任歸屬,也面臨着越來越大的争議。有學者指出,人形機器人将會是自動駕駛汽車之後,人工智能領域關于刑事責任探讨的主導性問題。有鑒于此,本文将立足于人形機器人的技術特性和法律屬性,嘗試全面考察其在不同應用場景中形成的複雜安全風險,着重分析其中的主要刑法歸責難題,在此基礎上系統地闡述可能的應對方案,探讨兼顧現實與面向未來的刑事歸責體系建構思路,為該領域的研究探索初步的理論架構。

二、人形機器人的技術特性與法律屬性

作為機器人家族的一個重要分支,人形機器人具有獨特的技術特征,這些特征會深刻地影響其實踐應用、安全風險和相應的法律屬性。

其一,人形機器人具有仿人類形象的外在條件。人形機器人具有類似甚至接近于人類的外部結構,例如頭部、軀幹、四肢、五官等。理論上有觀點認為,人類不需要将機器人的生産和設計朝着仿人化的方向發展,這種做法潛藏着倫理、法律上的諸多弊端。但是,研發人形機器人不僅僅是因為人類具有某種“物種自戀”情結,而是人類也可以通過這種方式了解自己。更關鍵的是,機器人的仿人特征能夠帶來很多優勢,因而被主流實務界所青睐。人形機器人的仿人外形,使得人類能夠增加對其的親和力和好感度。早在20世紀70年代,日本機器人專家森政弘就曾指出,在一定範圍内機器人與人類的相似度越高,人類對機器人所具有的好感度也越高。是以,人形機器人也具有了更加廣泛和深度的運用場景,能夠為人類帶來更多價值。例如,在不久的将來,陪伴型的服務機器人、社交機器人(social robot)将會成為發展重點。2024年1月國務院辦公廳釋出的《關于發展銀發經濟增進老年人福祉的意見》便已經指出,推進服務機器人等智能裝置在居家、社群、機構等養老場景內建應用。

其二,人形機器人具有更加複雜性、綜合性的技術要求。目前已經廣泛運用的工業機器人,如機器手臂,在技術要求上相對簡單。而人形機器人不僅在硬體上面臨工程學、動力學等多方面的挑戰,而且在軟體上對人工智能研發提出了極高的要求。按照目前的通行認識,人形機器人具有三大關鍵技術:“大腦”(環境感覺、人機互動),“小腦”(運動控制),“肢體”(本體結構)。這三個領域各自的技術要求,本身都是一項巨大工程。而人形機器人的研發至少需要将以上三者有機統合起來,在技術特性上具有更強的綜合性和複雜性。正是由于人形機器人的發展需要綜合諸多前沿學科,其被視為是機器人技術的最終目标之一。

其三,人形機器人具有高水準的人工智能。近年來快速進化的人工智能技術,是人形機器人發展的重要推動力。顯然,人形機器人不僅僅是具有仿人外形的機器人,更高程度的人工智能是其差別于傳統機器人的核心特征。尤其是,人工智能大模型的迅速發展,很可能會與人形機器人的智能進化深度結合在一起。例如,近期Figure AI公司與OpenAI公司合作,引入視覺語言大模型(Visual Language Model,VLM)很快推出了智能程度相當先進的人形機器人Figure 01。理論上,曾有觀點細緻地區分了人形機器人(humanoid robot)與類人機器人(human robot),認為人形機器人的外表與人類相仿,可以進行簡單的人類行為(如伸手抓取物品、雙腿行走等),而類人機器人是與人類行為接近并生活在類似人類社會環境中的機器人。事實上,不宜僅對人形機器人作形式化的定義,高度智能化以及由此帶來的深度人機互動,應當構成人形機器人的基本特征。

綜上,人形機器人和人工智能是緊密聯系但又存在差異的兩個法律概念。人工智能是涵蓋面更廣的概念,其主要強調高度智能化的屬性。而人形機器人以人工智能作為基本構成條件,是人工智能的具身化應用(具身智能),但還存在智能化以外的其他高度仿人特征,是以在更加具體的應用領域形成更多現實性的問題。由此,人形機器人與人工智能的刑事風險規制,既互相關聯又各有側重。人工智能的刑事風險規制以産品責任為起點,可拓展至人工智能的獨立責任主體地位争議。而人形機器人的刑事風險規制則在此基礎上,會更進一步涉及其具體應用領域中的前置法評價與倫理标準等問題。在此意義上,人形機器人既是一種産品類型,又是一種不同于一般産品的人工智能具身實體,相關的法律争議比一般的産品責任問題更加複雜,應當結合其多元的應用場景和特别的風險類型,在刑事法律的責任體系中加以獨立地考察和剖析。

三、人形機器人的應用場景與刑法歸責難題

人工智能可以作為一種犯罪工具,可能成為被攻擊對象,同時還可以為犯罪提供語境或背景。人形機器人作為人工智能的一種實體應用形态,它為人類帶來便利的同時,也潛藏着一系列安全風險。有學者甚至認為,越有人性的人工智能越危險。在展開刑法歸責體系建構之前,有必要結合目前已有和未來可能的技術應用場景,初步梳理人形機器人的各種安全風險及其為刑法歸責帶來的難題。

(一)刑事責任離散現象

随着人形機器人的廣泛部署,機器人與人類在社會交往中的聯系更加稠密,人類的人身、财産權利面臨更高的風險。機器人傷人的案例早已有之,代表性的案例如:德國鮑納塔爾大衆汽車工廠内的機器人手臂造成勞工死亡,德國阿沙芬堡一輛自動駕駛汽車失控後将路人撞死,微軟在推特平台推出的智能聊天機器人Tay對使用者進行了語言侮辱。人形機器人的廣泛部署,會進一步加劇上述類似情形出現的可能性。例如,在社交機器人與人類的日常互動中,可能會出現機器人對人類造成身體或心理損害的情況。人工智能化人形機器人在日常生活場景中的應用,在一些場合造成嚴重的法益損害後果在所難免,然而究竟由誰來為此承擔刑事責任,面臨很多不确定性,由此出現刑事責任離散(Diffusion)的現象。

其一,人形機器人引發法益侵害後果,往往涉及多方主體的參與和共同影響。人形機器人的硬體制造者、軟體開發者(尤其是智能系統的程式設計者)、銷售者、所有人或使用者,都可能是潛在的歸責主體。如果能夠查明是哪一環節出現了錯誤,進而直接導緻法益侵害後果的發生,則不會出現明顯的歸責難題。但由于技術運作的複雜性,完全可能存在多方主體同時發揮了不同程度影響的局面,此時是否都要進行刑事歸責、對何者進行刑事歸責不無疑問。

其二,人形機器人的高度自動化特征,對法益侵害結果的歸責結構形成了沖擊。由于人形機器人可以在一定程度上進行自主學習和決策,那麼其行為所引發的後果則可能超出生産者、程式設計者、所有者、使用者的控制和預期。當機器人系統出現錯誤決策時,有的時候事後難以進行複盤,人工智能和自動學習系統所帶來的這種不可預見性,為刑事歸責帶來了困難。

其三,人工智能和機器人屬于前沿領域的應用,技術标準仍處在不斷發展變動過程中,由此造成規範評價上的不穩定性。在刑法的規範評價中适當考慮風險的社會意義,是客觀歸責理論的經典思想。例如,法律可容許的風險和信賴原則便是典型的理論範式。然而,這些理論範式的适用,仍然依托于人們對技術可靠度、法律架構的變革、社會整體利益衡量等問題所形成的基本共識。而人工智能和機器人技術處在快速發展、變動不居的階段,其在人們的觀念認同中尚屬新興事物,從中提煉出刑法評價上的可容許性邊界和信賴基礎并非易事。

(二)責任主體地位不明

為了避免責任離散現象所形成的處罰漏洞,在自然人的刑事歸責之外,出現了将智能機器人确立為獨立責任主體的觀點。但是,這種了解在理論上引起了極大的對立,學界目前幾乎沒有共識,主要的争議集中在以下幾個方面。

其一,智能機器人是否擁有自由意志,進而成為獨立歸責主體。肯定性的意見認為,智能機器人在設計和編制的程式範圍外實施行為,實作的是自己的獨立意志,可能在自主意識和意志的支配下實施行為。反對的觀點則認為,現階段的機器人不能感覺自由,不能了解權利和義務的概念,不具有反思自己行為好壞的能力,是以不能被視為“自由”的主體,不具有規範評價意義上的“目的性”與獨立控制行為的意志自由。

其二,智能機器人是否具有拟制人格,進而像公司(或法人)一樣承擔獨立責任。肯定說認為,既然沒有自然生命和精神的公司可以被賦予刑法主體資格,那麼機器人同樣大量參與人類生活,和公司沒有本質差別,應當類同對待。否定說則指出,公司刑事責任仍然是某一部分自然人的責任,其始終無法切斷人的聯結點作用,是以不能通過這種類比來肯定機器人刑事責任。

其三,将刑罰施加于智能機器人,是否具有可行性以及能否實作刑罰目的。肯定的意見認為,對機器人可以通過一些變通或比照性的方式來進行處罰,如摧毀機器人、重置其算法、禁止其使用,設定保險基金來執行罰金等。通過對機器人的處罰,可以對被害人給予心理補償,實作刑法譴責錯誤行為的功能。反對性的意見則指出,人工智能系統和機器人的行為并不以規範為導向,對其進行處罰不具有确證規範效力的效果。讓機器人承擔罰金,最終實際導緻機器人的所有人承擔損失。

(三)刑法與前置法缺乏溝通

人形機器人的應用場景逐漸拓展,随之其安全風險也向更多特定部門性領域蔓延,不同法秩序之間的交叉加劇,對刑法與前置法之間的協同性提出了更高要求。然而,對于更加注重内部理論體系建構的刑法研究者而言,這些問題尚未引起充分關注。對此,人形機器人在軍事、警務、家政、護理等具體領域的應用,以及相應形成的安全風險和刑法歸責難題尤為突出。

由于人形機器人具備良好的仿人化行動能力,擁有一定的自主決策智能,将其适用于軍事行動或警務行動可以在很多場合更加高效、準确執行任務,避免人員傷亡。早在2013年美國釋出了Atlas人形機器人,2017年俄羅斯也研發了FEDOR人形機器人,這些都是在探索将人形機器人适用于軍事領域的可能性。在當代戰争中,無人機等自動化裝置已經被廣泛使用,在未來更具智能性的人形機器人被投入戰場的情形也可能發生。随着戰争場景中機器人智能化程度和自主決策能力越來越強,是否能夠允許其在戰争中投入使用,是否應當在法律上賦予其獨立主體地位等問題引發了很大争議。如果說戰争并非常态,那麼人形機器人未來可能在警務領域得到更加常見的運用。2016年7月,美國達拉斯警方在一起嫌犯暴力射殺警察的案件中,通過遙控裝有炸彈的機器人的方法将行兇者殺死。這是美國警方首次在執法行動中通過機器人使用緻命性暴力,引發一定的擔憂。2022年12月,美國舊金山監事會投票通過議案,允許警務部門使用殺手機器人(killer robot)在執法過程中殺害嫌疑犯,但随後該提案遭到了公衆的強烈反對,最終被推翻。在警務活動中投入能夠自主決策的機器人固然能夠具有諸多優勢,但是機器人能夠實施多大程度的暴力,如何把握合理的限度,如果機器人造成了損害後果,誰來承擔責任以及是否構成犯罪,面臨很大的不确定性風險。

人形機器人在家政、護理、酒店等領域已經得到較多應用,但它非常依賴于資訊和資料的大量處理,其中潛藏了前所未有的隐私、資訊和資料安全問題。一方面,人形機器人需要向外大量擷取資訊資料,這将對隐私、資訊和資料安全形成挑戰。家庭機器人為了更好地與人類互動,需要盡可能多地擷取包括敏感資料(如生物識别資料)在内的各種個人資料,而且這種資料擷取可能會超越必要性或授權邊界。而護理機器人則前所未有地、幾乎毫不間斷地介入病人的隐私領域,收集和記錄病人大量極為私密、敏感的個人資料(甚至包括裸體、性行為等資訊),其對病人進行持續的監護,也可能會影響到病人在很多決策上的自治性。另一方面,人形機器人本身儲存了很多重要資料,實際也扮演了資料平台的角色,如果其内在系統沒有可靠的安全機制,會存在資料洩露的風險。例如,日本一家著名的機器人主題酒店Henn na Hotel,很多服務員都由人形機器人來擔任,其房間内的機器人因為易于被入侵、窺探和遠端操控,使得顧客的隐私可能遭受侵犯因而受到投訴和質疑。

在上述人形機器人應用場景中所形成的安全風險和刑法歸責難題,在很大程度上需要刑法和國際人道法、行政法、警察法、資訊和資料保護法等相關規範協同治理。而在人形機器人的設計、生産、使用上,目前在這些部門法之間仍然缺少充分的溝通機制。

(四)倫理評價标準懸而未決

人形機器人與人類私密生活領域的融合逐漸深化,其高度仿人性、智能性對既有的倫理标準、社會道德尺度形成了巨大挑戰,由此也将直接或間接地影響刑法評價。對此,在性相關犯罪領域所形成的新問題尤為引人關注。

人工智能技術被運用于性相關犯罪領域,成為日益突出的問題。使用AI換臉、深度僞造技術傳播淫穢内容、侵犯他人人身權利的行為屢見不鮮,相關國家已經開始考慮通過立法予以特别應對。而将人工智能予以實體化的人形機器人,由于具有了逼真的仿人實體,将會在性相關領域引發很多複雜的新問題。目前已經出現的争議主要圍繞性愛機器人展開。性愛機器人不同于簡單的性玩具,它具備更完整、更逼真的人體結構特征(通常主要是女性形象),是以不僅僅是作為一種滿足性欲的工具,而且可能成為由人類所支配的“同居伴侶”。随着人工智能技術的進步,性愛機器人的智能化是目前的重要發展趨勢,相關産品早已經在國外市場流通。例如,True Companion公司的Roxxxy有五種不同性格特征的性愛機器人可供選擇。其中,FrigidFarrah存在誘導使用者對其進行強奸的設定,而Young Yoko則存在對剛滿18歲女性進行“性規訓”的不良導向。另外,Real Doll公司的Harmony以及Synthea Amatus公司的Samantha等都已經為搭載AI技術的人形機器人設計了相當仿真的各種性愛行為細節。甚至,由于已經存在了兒童性愛玩偶,對于可能出現的兒童性愛機器人也引發了嚴重擔憂。

能否在法律上(尤其是刑法上)允許性愛機器人的制造和流通,存在巨大争議。性愛玩偶目前在大部分地區并沒有被明确認定為淫穢物品,通常不會受到刑法的嚴格規制。但是,性愛機器人具備越來越逼真的仿人特征和智能水準,是否能夠延續同樣的邏輯則仍不清楚。配置有性愛玩偶和性愛機器人的“妓院”已經在一些地方出現,對此自由主義者、保守主義者、女權主義者形成了迥異的立場。在大陸,對淫穢物品進行了非常嚴格的管制。如果存在生産、銷售性愛機器人或提供性愛機器人服務的行為,是否應當由刑法加以幹預,可否在傳播淫穢物品牟利罪、非法經營罪甚至組織賣淫罪等刑法規範中加以分析仍不明朗。由于生産、流通、擁有性愛機器人并沒有直接的受害者,是否有必要在刑法中予以規制,在很大程度上取決于前置的社會倫理評價标準,而這一問題在大陸學界尚未展開深入探讨與研究。

四、人形機器人的刑法歸責體系建構

面對人形機器人大規模部署之後的刑法歸責難題,需要探讨兼顧現實與面向未來的應對思路和體系化的理論建構方案。

(一)代表性歸責方案

對于智能機器人行為的刑法歸責,理論上已有各種不同的思考進路,可以總結為以下幾種模式。

其一,代理責任模式。一種代表性的觀點将機器人了解為一種無辜代理人,實際強調機器人在犯罪情景中的非獨立性地位,此時機器人成為人類的工具。該學說具有明顯的英美法系刑法理論印記,實質上接近于大陸法系刑法理論中“間接正犯”。另一種類似的觀點,主張比照法人犯罪中的上級責任理論(respondeat superior),将機器人的開發者、所有者、使用者的犯罪意圖歸罪于機器人,由此仍然由作為“上級”的人類承擔刑事責任。該種觀點本質上也是“穿透”機器人的行為,将刑事歸責回溯到人類。在當下人工智能發展水準之下,代理責任模式具有較多的适用場景。但是随着技術的迅速疊代,機器人具有越來越高的獨立性和自主性,代理關系可能會逐漸弱化,變得越來越難以認定。

其二,過失責任模式。該模式意味着按照過失犯的相關理論,對機器人的開發者、所有者、使用者來進行歸責。對此,兩大法系學者的具體表述也存在差異。受英美刑法理論影響較大的學者提出了“自然可能後果”責任理論。按照該學說,人類在設計、使用機器人時如果應當能夠預見到機器人可能引發的損害後果,則人類仍然應當承擔責任,其主觀心态是過失。所謂的“自然可能後果”,在英美刑法中是一種共犯的擴充處罰理論。而大陸法系的刑法理論往往認為共同犯罪和過失犯是相對分離的命題,是以傾向于在個體犯罪的法教義學架構中,考察機器人背後人類參與者的刑事責任。過失責任模式也是目前機器人刑法中主要依賴的歸責路徑,但是可能難以應對上述責任離散現象,其具體理論内涵也存在相當程度的革新需求。

其三,嚴格責任模式。該模式在機器人刑法歸責問題中不再要求主觀罪過,屬于一種典型的擴張處罰的理論範式。在具體實作路徑上,嚴格責任模式也存在不同方案。一種方案通過弱化乃至取消機器人設計者、生産者、使用者的主觀罪過要求,來拓展人類的入罪邊界。英美法系在與未成年發生性行為、低風險輕微犯罪中仍然部分保留了嚴格責任。是以,有學者認為,對于機器人應用所帶來的損害,可以通過為機器人設計者、生産者、使用者創設輕罪、拓展嚴格責任來回應。另一種方案則認為,追究人工智能(機器人)犯罪時,不需要考慮人工智能是否有緻使他人損害的犯罪意圖,無需其對犯罪行為和後果具有認識和意志因素。這種觀點實際提出了針對機器人本身的嚴格責任,但在邏輯上其應當以機器人可以成為獨立歸責主體作為前提。嚴格責任模式使得機器人犯罪中的刑法歸責變得簡單,諸多障礙被化解。然而,嚴格責任和刑法中的責任原則存在明顯抵牾,難以得到廣泛認可。或許和人類的歸責不同,弱化責任主義原則對機器人帶來的消極影響相對較小,但是畢竟這樣的歸責方案仍然有失公平,尤其是對機器人的處罰最終很可能仍然會轉化為人類(如所有者)不應得的損害。

其四,獨立責任模式。該模式意味着賦予機器人法律主體地位,讓機器人為其犯罪行為獨立承擔刑事責任。這一模式固然能夠較好地應對所謂“報應缺口”的問題,但如上文所述,其理論基礎和可行性仍面臨極大的争議。例如,有觀點非常犀利地指出,直接地肯定機器人獨立責任,高估了機器人和人工智能技術的發展現狀。

(二)場景化刑法歸責體系

上述各種責任模式,都存在一定程度的優勢和不足。顯然,這些責任模式并不互相排斥。除了嚴格責任與大陸現有刑法體系存在沖突,其他責任模式都可以整合到一個綜合性的歸責體系之中。随着人形機器人的擴充部署,其所帶來的安全風險來自各種不同的行業和情境。同時,人形機器人技術處在不斷發展和變化過程中,不同仿人化、智能化程度的人形機器人将會在多種情形中被同時投入使用,由此形成不同性質、不同程度、不同結構的安全風險。這種多元、動态、複雜的風險形成機制,決定了對人形機器人引發的犯罪行為應當因事制宜地采取場景化的刑法歸責體系。人工智能和機器人技術對刑法的影響是一個漸進的過程,刑法歸責理論同樣不宜尋求突變,而是應在傳統理論體系的基礎上予以适度拓展。代理責任模式和過失責任模式,仍然屬于傳統刑法理論體系的範疇,而獨立責任模式則是對新型刑法歸責體系的探索,兩者構成以人類為中心和以機器人為中心的兩種不同歸責方案。這兩種路徑并非互相對立,其受制于不同的技術發展階段,應當在場景化的刑法歸責體系中統合起來。

1.傳統刑法理論的适用與延展

立足于傳統刑法法教義學原理,輔之以适當的改良和發展,可以處理當下機器人刑法中的絕大部分歸責問題。在面對人形機器人所帶來的安全風險和刑法挑戰時,關鍵的問題是避免在責任離散現象中出現明顯的處罰漏洞。而在目前的人工智能和機器人技術條件下,現有的刑法教義學原理基本可以應對。在很長一段時間内,人類與人工智能(機器人)仍然處在一種監督、管理關系之中。其具體可包括人類對人工智能體決策的幹預(human in the loop)、設計的幹預(human on the loop)、整體活動的監管(human in command)。是以,當人形機器人引發法益損害後果時,通常可以通過一定的溯因機制尋找引發後果的原因,并在此基礎上進行刑法歸責:(1)如果機器人的所有者、使用者故意利用機器人來侵害他人法益,按照相關故意犯罪追究刑事責任;(2)如果機器人的程式設計出現重大疏忽,或者研發過程中的部件生産、組裝出現明顯過錯,則可以考慮追究程式設計者、生産者的産品責任;(3)如果生産者、程式設計者等多個主體對損害結果的發生發揮了不同程度的作用,按照多因一果的模式進行分析,對起主要作用者進行歸責,起次要作用者在具體案例中酌情處理;(4)如果機器人的所有者、使用者沒有按照正常流程對機器人進行設定和使用,引發對他人法益侵害後果,可能在相關過失犯罪的架構中來進行歸責;(5)如果是機器人所有者、使用者在上述情形中引發對自身法益的侵害後果,那麼應當在被害人自我答責的理論架構中來予以考察。

與此同時,應當在機器人刑法的技術語境下,重點對可容許的風險和信賴原則進行推演和适度拓展。機器人使用過程中可能出現多種類型的事故,如幹涉碰撞、失速異動、擠壓拍擊、零件故障、電氣故障、系統失效等。這些事故在一定條件下,可能引發法益損害後果。對此,不宜采取完全結果導向的思路,或者僅僅對損害後果具有抽象的預見可能性,便要求生産者、程式設計者承擔過失刑事責任,這種做法會不當地壓制人工智能新技術和機器人産業的發展。如果機器人所引發的損害後果,處于可以容許的風險之内,則應當阻卻刑法歸責。風險是否屬于可容許的範圍,關鍵在于機器人的部署是否給人類帶來了更大的利益,由此在觀念上得到了社會的認可。機器人技術和人工智能處在快速發展疊代過程之中,因而對此很難有明确的實定法标準,但以下因素仍然可以重點進行綜合參考:(1)行業标準和技術慣例。行業标準和技術慣例雖然并非具有權威效力的規範,但是代表着産業的整體發展水準和通常做法。如果機器人生産、程式設計符合了行業标準和技術慣例,即使行為引發了風險,那麼這種風險被社會所認可的機率相對較高。(2)應用領域的風險等級。2021年4月歐盟委員會提出的《人工智能法案》,對人工智能提出的監管和法律架構以不同應用領域、不同程度風險等級為标準來設定。其區分了禁止的人工智能行為、高風險人工智能系統、其他人工智能系統,并分别設定了不同的法律義務和監管要求。同樣,智能人形機器人應用領域的風險等級越高,風險被法律和社會所容許的标準和條件就越高。(3)受益對象和參與主體。如果人工智能系統危害到了完全不相關的他人,那麼風險被容許的可能性,就低于使用者自願參與這種風險行為的情形。

在人機互動逐漸日常化、深度化的背景下,信賴原則也應當适當突破自然人與自然人之間的範圍。對于符合标準、正常投入流通的人形機器人,人類也可對其行動方式、操作流程産生合理信賴。對于人形機器人引發法益侵害後果的因果流程,如果人類基于合理信賴而參與其中,那麼應當阻卻損害後果對人類的歸責。反之,對于人類引發法益侵害後果的因果流程,人形機器人以算法為基礎産生合理“信賴”參與其中,也應當阻卻損害後果對人形機器人以及相關人類主體(如生産者、程式設計者、使用者)的歸責。需要注意的是,在一些異常性、緊急性狀況中,如果人類的判斷明顯不同于人形機器人的正常算法邏輯,那麼信任原則不能再簡單套用。此外,在機器人和機器人之間,也可以在一定條件下存在信賴原則的适用空間。例如,甲方機器人按照正常流程基于“信賴”參與乙方機器人的互動,如果因乙方機器人出現明顯的疏忽或過錯引發法益損害後果,同樣應當阻卻損害結果對甲方機器人及其相關人類主體的歸責。

2.機器人責任主體地位的理論可能

面對技術和社會的不斷進步,刑法體系應當持發展的立場,可以考慮在未來有條件地承認人形機器人獨立責任主體地位的可能性。

其一,之是以學界關于機器人能否成為刑事責任主體存在巨大争議,重要原因之一在于學者們對人工智能和機器人技術的發展現狀和前景持不同态度。持相對保守立場的學者,更多看到的是人工智能目前所存在的技術瓶頸。但是如果技術繼續朝着強人工智能的方向發展,部分學者對此問題也并不全然持否定立場。事實上,法學學者不能過于低估技術發展的速度。技術專家指出,精神不過是大腦功能的一個标簽而已,它并不獨立于大腦細胞而存在,神經元也不過就是細胞而已,并沒有神秘力量控制神經細胞行為,是以智能機器完全可能。20世紀90年代以後,機器人發展前進了一大步,出現了具有半感受範式的社會機器人,而一些先鋒研究成果表明,可能在人工機器中實作内在自我認知。現代神經科學不斷地表明,意識正在“祛魅”,它并非人類所獨有,是一種由内向外的“預測加工”,人工智能和機器人技術的發展完全有可能帶來看似是意識的新技術。雷·庫茲韋爾(Ray Kurzweil)提出著名的加速回報定律更是指出,人工智能技術呈指數增長而非線性增長,他預測到2029年人類和機器之間的鴻溝不再,機器可以通過圖靈測試,具備由人類智力逆向工程發展而來的性格、能力和知識。近期,OpenAI所釋出的ChatGPT和Sora更是讓人們看到了越來越高的這種可能性。當然,與此同時,對人工智能和機器人技術發展速度持懷疑的學者也不在少數。但總的來說,法學學者宜對技術發展保持開放的心态,适度前瞻性地探讨可能發生的刑法歸責範式轉換,反思傳統刑法理論,由此也指引技術朝着更加實質合理的方向發展。

其二,面對人—機器人深度嵌套社會中可能出現的責任離散現象,對傳統刑法教義學理論的延展與調适有其限度。如果法律補救的最終目的是鼓勵好的行為、否定壞的行為,那麼有的時候僅僅處罰智能機器人的所有者、設計者就并不總是有道理,因為他們可能沒有實施錯誤的行為。對人工智能涉及的損害結果進行回溯追責,在複雜的情形中,可能面臨着事實操作層面和法律規範評價層面的不可還原性。在共同發生作用的事實因素過多的場合,難以從中明确法律評價的重點。而即使能夠相對明确,其所創設的輕微風險是否已經達到了刑法入罪的實質要求,在處罰必要性上仍然存疑。在前述聊天機器人Tay案中,這樣的情況已經出現了苗頭。對此,有學者主張專門設定發售危險産品的抽象危險犯,将損害結果的出現作為客觀處罰條件。這種做法雖然不同于嚴格責任,但仍然有接近于嚴格責任的傾向,可能存在過度嚴苛的問題。在機器人的生産者、設計者已經盡到了目前社會所能達到的客觀注意義務時,如果出現了嚴重的損害後果,仍然擴張性地适用諸如過失犯、抽象危險犯、客觀處罰條件乃至嚴格責任這樣的理論來對他們進行刑事歸責,固然回應了被害人和社會的報應期待,但實際上産生了使機器人的生産者、設計者淪為替罪羊的風險。這不僅會削弱責任原則的實際效果,而且長遠來看可能會對機器人和人工智能技術的發展産生寒蟬效應。

其三,能否承認機器人責任主體地位,涉及刑法歸責中基本思考方法轉向的問題。不論是機器人是否具有自由意志、是否具有責任能力,抑或是能否成為适格受罰對象,理論上之是以形成兩極化的争議,除了對人工智能技術發展的預期不同,主要在于對刑法歸責采取的是一種偏向本體論還是接近于功能主義的思考方法。

首先,就人類自由意志的有無抑或存在形式而言,随着神經科學研究的深入,至今仍然無法形成基本定論。從神經科學的角度來觀察刑法,刑法是否可以建立在所謂自由意志上是存疑的。在當下的刑法理論中,逐漸不再格外地強調這樣一種本體論上的事實前提,因為其無法得到可靠的确證。同樣,是否具有自由意志并不會成為承認機器人責任主體地位的必然前提。

其次,法律(包括刑法)中的人格,則更非事實描述性的概念。人格并不是由某種神秘形而上學屬性所決定的東西,而是一種在社會中被建構、協商和賦予的資格。最為重要的一個例證,就是很多國家在民事法和刑事法中都賦予了公司拟制的法律人格。公司當然不可能具備人在事實上的各種屬性,但在人類社會的交往中,功能性地賦予其類似于人的主體地位能夠使法律關系更加符合社會的發展需要。換言之,法律人格的判斷是一種以權利義務資格為依據的實質化标準,如果我們賦予機器人或人工智能體權利義務,它也可以具備法律人格。在方法論上,将某些非個人組織予以人格化,是法律史上一種普遍的法律推理的思維方法,而對具備高度智能的類人機器人則更是可以沿用同樣的邏輯。反對性的意見非常細緻地指出了公司和機器人在事實層面的差異,即公司背後始終有人的因素在發揮作用。但是,一方面,在很長一段時間内,機器人背後同樣存在人類(如設計者、所有者、使用者)的影響。另一方面,人類的聯系仍然是一種事實描述性的因素,它并非規範地賦予人格的必然要求。刑法中的人格是一種社會建構性的概念,而并非必須可以被還原為自然事實。

再次,刑法中的罪責,同樣也應當在功能主義的視角下加以重新審視。如果采取一種絕對人類中心主義的立場,完全從本體論來界定罪責概念,那麼當然隻有人類可能成為刑事責任的主體。不論人工智能如何發展,人形機器人始終隻是對進階碳基生物形式的一種模仿,而不可能成為人類。否定機器人責任主體可能性的觀點,往往傾向于詳細地論證機器人不具有像人一樣的感覺能力。但是,本體論上的人類感覺,并非罪責歸屬的絕對前提。刑法上的罪責,并非基于一種生物性的自由,而是作為一種社會事實的自由歸屬,這為機器人的刑事責任提供了可能。換言之,罪責并非先驗的概念,它也是一種建構性的理論。正因如此,沒有人類感覺和生命的公司成為刑法上的獨立責任主體,在邏輯上才能成立。更何況,就像企業具有内部決策機制因而形成了故意,智能機器人同樣可以根據這種方式具有類似的故意。

最後,如果貫徹了功能主義的思考,機器人接受刑罰的意義也并不會形成對其歸責的障礙。如果人們在觀念上接受了機器人的獨立主體地位,那麼對其科處刑罰就可能實作相應刑罰目的。尤其是在高度仿人的人形機器人深度融入人類社會以後,這種觀念上的趨勢很可能會逐漸增強。有學者擔心肯定機器人的處罰,可能會導緻刑事責任由人類向機器轉移,與人工智能風險的刑法規制背道而馳。但如上所言,機器人的刑法歸責路徑與人類的刑法歸責路徑并非替代關系,二者并不互相排斥,是以這種刑事政策上的擔憂并無必要。通過對違反刑法的機器人科處刑罰,可以功能性地維護刑法規範的效力,為受害者乃至整個社會提供正當感和安全感,也間接促使機器人的開發者、所有者以符合社會需要的方式調整自己的行為。在刑罰具體實作形式上可能仍然需要深入讨論,但既然能夠對公司進行刑事處罰,那麼對機器人的處罰也并非不可能。而且,機器人具備了更高的自主性和智能性,對其科處的刑罰形式甚至可以不僅僅是罰金。

總之,對機器人進行獨立歸責,并不需要機器人成為人。如果實作從本體論向功能主義的轉變,那麼未來有條件地承認智能機器人的獨立責任主體地位在邏輯上可以成立。在人機互動逐漸深入的語境下,這種觀念的轉變可能是人工智能時代刑法歸責體系未來将會面臨的根本性問題之一。當然,如前所述,這種可能性和必要性仍然在很大程度上取決于今後人工智能和機器人技術的發展程度和狀況。

綜上,在關于人形機器人的場景化歸責體系之中,以人類為中心的傳統刑法理論和以機器人為中心的新型刑法理論構成刑法歸責坐标軸中縱向和橫向兩個基本次元。在縱向次元上,生産者、設計者、使用者對人形機器人的支配程度和控制意願越強,人形機器人的客體化工具屬性就越突出,就更可能按照代理責任模式來進行刑法歸責。而當人類對人形機器人僅具有相對較弱的支配程度和控制意願,人形機器人的客體化産品屬性就較為明顯,更為容易按照過失責任模式來進行刑法歸責。當然,在此次元上,以支配和控制程度作為參考依據的刑法歸責,應當是一種規範性而非純粹事實性的判斷,其中新技術條件下的風險可容許性、社會信任機制發揮着重要的調節作用。如果上述規範性的支配程度和控制意願非常薄弱,則接近縱軸的原點宜對人類行為作無罪化處理。在橫向次元上,人形機器人的智能化、仿人化程度越高,人形機器人的主體性地位就越強,就越可能被評價為獨立刑法歸責主體。在此次元上,一方面,發揮基礎作用的是人工智能和機器人的技術發展水準,其在很大程度上将決定傳統刑法歸責體系的缺口;另一方面,人類社會中法律關系的功能性建構需要也發揮着關鍵作用,其通過功能主義的思路彌補和發展傳統刑法歸責體系。此外,需要強調的是,雖然縱軸和橫軸代表兩種不同方向的刑法歸責思路,但二者統合在整體的場景化歸責體系之中。就好比追究公司刑事責任與個人刑事責任并不沖突,甚至二者經常同時存在,人類的刑法歸責與人形機器人的刑法歸責在未來既可能是擇一關系也可能并列共存。

(三)開放式刑法歸責體系

場景化刑法歸責體系為人形機器人的治理提供了歸責路徑的指引,但由于人形機器人形成了多元性、特定領域導向的新型安全風險,在一些前沿的領域和複雜的情形中,既有的刑法知識體系尚無具體應對和處置方案。是以,除了歸責路徑的探索之外,合理刑法歸責的實作在内容上還依賴于外部性、實質化的依據作為支援,需要對其他法律規範評價和發展中的倫理标準保持協同和開放。

1.部門法之間的協同

如前所述,刑法與前置法缺乏充分有效的溝通機制,使得軍事、警務、家政、護理、酒店等領域人形機器人的相關安全風險及其刑法規制難以得到穩定的規範評價。是以,刑法與其他領域法律規範的協同,成為機器人相關犯罪刑法歸責評價中的重要問題。由于刑法屬于保障法,具有最後手段性的特征,應當盡量将前置法中的基本原則作為考察刑事責任的前提,避免刑法突破前置法領域共識的現象,同時将前置法中的一些具體要求作為實質化理論資源融入刑法教義學體系。

在軍事領域,人形機器人的設計與使用面臨國際人道法的諸多限制,應當将國際人道法的部分原理納入刑法歸責評價之中。雖然将人工智能機器人運用于戰場逐漸開始成為一些國家的選擇,但理論上對此存在強烈的擔憂。使用軍事機器人可以減少人類直接近距離參戰,降低了戰争成本和門檻,可能反過來導緻更多武裝沖突,減弱士兵對生命的尊重,進而形成對戰争中人道主義原則的挑戰。是以,軍事機器人的設計、研發與使用,同樣應當嚴格落實國際人道法中的基本原則,才能具備基本的正當性。例如,軍事機器人的程式設計和生産,應當使機器人能夠遵守差別對待原則,将合法目标和非法目标、戰鬥人員與平民、軍用設施和民用設施進行不同處理;應當使其能夠實作比例相稱原則,隻能使用與攻擊目标比例相當的武力。如果沒有達到上述前置法要求和标準,那麼這些因素将成為(尤其是在國際刑法領域)對相關主體進行刑事歸責的重要依據。

在警務領域,能否将人形機器人投入執法活動,機器人在警務活動中使用暴力(尤其是緻命性暴力)的邊界,首先取決于行政法中一系列基本原則的判斷。如果機器人未來能夠具有一定自主性地參與執法任務,那麼行政法中的比例原則、越權無效等基本原則,包括警察法所規定的警察使用武器的基本流程和要求,不同暴力程度警械手段的層級化設定,都應當内嵌于人形機器人的算法之中。否則,在産生不當侵害後果時,機器人的設計者、使用者等主體可能承擔人身權利侵害或職務犯罪等領域的刑事責任。

在家政、護理、酒店等領域,人形機器人與人類日常起居生活處在一種非常緊密的互相關系之中,并且存在大量的資訊和資料處理需求,因而人形機器人的研發、設計和使用,應當嚴格符合資訊和資料相關保護法律的要求。例如,歐洲通用資料保護條例、大陸資料保護法、個人資訊保護法所确認的合法、正當、必要和誠信原則,公開透明原則,目的限制原則,必要性原則等,都應當内置于人形機器人的資訊和資料處理機制之中。此外,對敏感個人資訊的處理和保護,則應當對人形機器人相應設定更高的義務标準和安全機制。大陸刑法侵犯公民個人資訊罪中的“違反國家有關規定”,以及非法擷取計算機資訊系統資料罪中“違反國家規定”“未經授權或者超越授權”等核心要件的認定,便需要實質性地考察上述前置法中基本原則的落實情況。違背上述原則,存在侵犯人類隐私、資訊和資料權利的行為,情節嚴重的則可能構成相應犯罪。

2.機器人倫理的探索

形态與智能高度仿人的人形機器人進入人類社會後,将會極大地挑戰傳統的倫理學标準,這對刑法歸責的評價同樣具有深層影響。懸而未決的倫理評價标準,使得人形機器人在部分領域(尤其是在性相關犯罪問題上)的刑法評價非常困難。雖然違背倫理道德的行為不一定構成違法犯罪,但是相當一部分行為的刑法評價具有内在的倫理道德基礎。例如,如果社會承認一種相對開放的性觀念,私密的聚衆淫亂就不會作為犯罪論處。反之,則可能形成一種以倫理道德評價為基礎的刑事責任。在機器人刑法領域這種現象尤為明顯,某些類型的人形機器人能否允許以及通過何種方式設計、生産、流通、使用,通過何種方式得到保護,都有賴于在刑法歸責評價中納入機器人倫理的實質考察。“淫穢物品”“賣淫”這些刑法概念的規範内涵,也需要借助機器人倫理的評價,才能在新的人—機嵌套型社會語境中得到澄清。

阿西莫夫在1942年發表的《轉圈圈》(Runaround)中提出的機器人學三定律,屬于最為經典的機器人倫理标準:(1)機器人不得傷害個人(a huaman being),或者因不作為而使個人受到傷害;(2)機器人必須服從人類賦予它的指令,除非該指令和第一定律産生沖突;(3)在不違反第一和第二定律的情況下,機器人必須保護自己。機器人學三定律雖然在科幻文學作品中被提出,但至今仍被學術界認為是機器人學的倫理性綱領,将其作為機器人開發的準則。然而,阿西莫夫的機器人學三定律隻是一個粗糙的基本倫理架構,理論上不乏相當多的質疑和改良意見。顯然,經典的阿西莫夫機器人學三定律在複雜多元的應用場景中,會出現難以應對甚至自相沖突的局面。例如,在警務或軍事領域部署的人形機器人,如果它具有殺人的功能,便會直接與第一定律相沖突,即便它服務于某種人類認為具有正當性的理由。是以,目前很多國家都在積極探索和發展更加綜合性、開放性的機器人倫理标準。例如,2005年南韓頒布了《南韓機器人倫理學憲章》,2019年歐盟人工智能進階别專家組釋出了《可信賴人工智能倫理指南》等。在大陸,也陸續出台了一些官方和非官方的人工智能與機器人倫理規範。在上述各種版本的人工智能和機器人倫理标準中,一些基本原則逐漸成為共識,如尊重和保護人的尊嚴與權利、保障可解釋性和透明度、公平性(不歧視)原則等。這些基本的機器人倫理原則,不僅是人形機器人設計、生産、使用的指導标準,而且也應當内化于人形機器人刑法的具體規範評價之中。

在性愛機器人問題上,鮮明地展現了機器人倫理對刑法評價的關鍵作用。性愛機器人是否符合機器人倫理,将直接決定其能否在法律(包括刑法)上被允許生産、流通甚至使用。肯定的意見認為,性愛機器人能夠緩解性壓抑和孤獨,起到陪伴作用,減少一些人從事非法、危險性活動(如嫖娼甚至性犯罪)的風險,避免潛在傷害。但是,否定的觀點認為,目前流通的性愛機器人實際變向地扭曲了女性的性同意問題,貶低女性人格,導緻男性疏遠人類伴侶,形成一種幻覺和依賴,甚至對人類文明的未來形成沖擊。有學者甚至發起了反對性愛機器人運動,主張性愛機器人與賣淫行為在物化女性這一點上有相似之處,緻力于推動性愛機器人的犯罪化,但理論上對此存在極大争議。正因為性愛機器人存在着巨大的倫理争議,尤其是可能潛存的負面效應,大陸的法律(包括刑法)應當對性愛機器人的設計、生産、流通持慎重的态度。對此,應當區分一般的性愛機器人和兒童性愛機器人的法律評價。對于兒童性愛機器人,由于其明顯嚴重地違背機器人倫理,刑法應當考慮明确予以禁止。有學者認為,制造、使用兒童性愛機器人,雖然沒有直接對兒童形成外在性侵害,但實際上通過虛拟的方式複制這種行為模式,這在道德上是錯誤的,可以成為刑法規制的對象。不過,不少國家的現行法律規範,實際上不能準确地涵蓋這類行為。在美國,雖然存在一系列禁止兒童色情的法律,但是關于兒童性愛玩偶和機器人的刑法規定仍然存在漏洞。對此,美國衆議院于2018年通過了《遏制現實剝削性愛電子戀童癖機器人法案》(簡稱CREEPER),旨在拓寬已有的淫穢物品罪刑規範的适用範圍。該法案規定,進口或運輸任何具有未成年特征或類似特征,用于性行為的玩偶、人體模型或機器人,構成犯罪。其後,該法案在美國參議院受阻,2021年CREEPER2.0版又被提出,意圖進一步将持有或買賣上述物品的行為也予以犯罪化。在英國現有的法律架構下,制造、分發、持有兒童性愛娃娃和機器人的行為,也不能被完整地規制,是以有學者主張在《性犯罪法案》中增設新罪予以補充。在大陸,關于性愛機器人的倫理研究寥寥無幾,對刑法可能産生的影響也尚未展開讨論。事實上,大陸已經開始出現此類問題的雛形,據報道,一些地方已經出現“矽膠娃娃體驗館”,但是部分被有關部門查封。鑒于性愛機器人可能帶來的挑戰,不遠的未來我們需要深入研究機器人倫理,将其作為刑法歸責評價的前提,由此進一步判斷生産、流通、使用性愛機器人的行為是否在特定情形中存在實際法益侵害,并重新評估大陸刑法中性相關犯罪(尤其是淫穢物品犯罪)的立法與司法适用邊界。

結語

随着機器人和人工智能技術日新月異的發展,作為具身智能的人形機器人在應用場景上逐漸拓展,人與機器人深度互動的時代逐漸臨近。具有高度仿人性、智能性特征的人形機器人除了對傳統人身、财産權利安全可能形成隐患,在軍事和警務領域,隐私、資訊和資料安全,以及性相關犯罪等方面,也帶來了很多新的法律挑戰。由此,在人形機器人的刑法歸責中,可能出現刑事責任離散,責任主體地位不明,刑法與前置法缺乏溝通,倫理評價标準懸而未決等一系列難題。在理論上,目前主要存在代理責任、過失責任、嚴格責任、獨立責任四種刑法歸責模式,其在不同程度上都存在各自的優勢與不足。不同智能程度的人形機器人在多種多樣的情形中被部署,其形成了多元、複雜、動态的安全風險。在此背景下,除了嚴格責任之外,其他幾種責任模式都可以被統合到場景化的刑法歸責體系中。在目前的技術發展階段,傳統刑法教義學原理可以處理機器人刑法中絕大部分的歸責問題。但是,立足于人形機器人的智能屬性,應當在新的技術條件下對可容許風險和信賴原則等原理予以重新梳理和适度延展。放眼于未來,法律學者不能低估人工智能和機器人技術的發展速度。應給予肯定,尤其是面對可能出現的責任離散現象,可以在未來有條件地肯定智能人形機器人獨立責任主體的可能性。對此,需要倡導建構式的理論應對機制,從本體論轉向功能主義視角,重新思考刑法理論體系中自由意志、人格、責任和刑罰等概念的意義。面對人形機器人所帶來的跨領域新型安全風險,刑法歸責體系應當對其他法律領域的規範評價和尚待深入探讨的機器人倫理保持開放,協同不同部門法之間的關系,将機器人倫理融入機器人刑法的責任判斷架構之中。

王華偉|論人形機器人治理中的刑法歸責

繼續閱讀