天天看點

皮勇:論自動駕駛汽車生産者的刑事責任|比較法研究202201

【作者】皮勇(同濟大學上海國際知識産權學院教授,法學博士)

【來源】北大法寶法學期刊庫《比較法研究》2022年第1期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。

内容提要:自動駕駛汽車是人類研發、制造、使用和管理的智能産品,不是犯罪主體或刑事責任主體。在自動駕駛汽車自主要制狀态下發生交通事故的,其生産者、使用者和其他人員難以按照大陸現有刑法的罪名定罪處罰。除非道路交通安全法和刑法有專門的規定,駕駛位人員不接管汽車或接管後無力改變交通事故結果的,不構成交通肇事罪或其他管理過失犯罪。駕駛位人員的注意義務是阻止自動駕駛汽車自主要制下發生交通事故,其注意義務不應過高。允許的風險、緊急避險理論不能為自動駕駛汽車緊急路況處理算法的生産與應用提供合法、合理的解決方案,生産者遵守算法安全标準僅可以使生産行為合法化。鑒于現行刑法不适應自動駕駛汽車應用的特性,大陸應當建立以生産者全程負責為中心的新刑事責任體系,使之在自動駕駛汽車生産和應用兩個階段承擔安全管理責任,生産者拒不履行自動駕駛汽車應用安全管理義務且情節嚴重的,應當承擔刑事責任。

關鍵詞:自動駕駛汽車;行為性質;注意義務;算法決策;新刑事責任體系

目次

一、自動駕駛汽車交通事故涉及的刑法問題

二、自動駕駛汽車交通事故相關行為的性質

三、自動駕駛汽車交通事故責任人的注意義務

四、自動駕駛汽車交通事故犯罪的新刑事責任體系建構

五、結論

應用新一代人工智能技術的自動駕駛汽車能減少甚至消除人類駕駛員引起的安全風險,給人們帶來更安全、便捷的智能交通願景,但是,由于目前自動駕駛技術并不完善,近年來特斯拉汽車等自動駕駛汽車發生了多起嚴重的交通事故,導緻自動駕駛汽車安全的神話破滅。有效防控自動駕駛汽車安全風險是發展智能交通的基礎。2017年7月8日,國務院釋出的《新一代人工智能發展規劃》要求,“在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰”,“最大限度降低風險,確定人工智能安全、可靠、可控發展”,對自動駕駛汽車應用要“加快制定安全管理法規,為新技術的快速應用奠定法律基礎”,刑法應當在保障自動駕駛汽車安全發展中發揮重要作用。自動駕駛汽車應用不同于傳統的人類駕駛活動,目前刑法在應對自動駕駛汽車交通事故時遇到新挑戰,需要深入研究相關刑法問題,為智能交通安全發展提供充分的刑法保障。

自動駕駛汽車交通事故涉及的刑法問題

自動駕駛汽車在大陸被稱為智能網聯汽車,其控制系統是新一代人工智能系統。新一代人工智能系統具有自主學習、分析和決策功能,能夠通過資料學習,形成不斷擴充适應任務環境能力的機器智能。國際汽車工程師學會、美國交通部、德國聯邦交通與數字基礎設施部等将自動駕駛汽車分為5級或4級智能,其中,L1、L2級智能的車輛隻具有輔助人類駕駛員控制功能,實際上由人類駕駛員控制汽車,在技術上不屬于自動駕駛汽車。2021年8月20日,國家市場監督管理總局、國家标準化管理委員會釋出《汽車駕駛自動化分級》GB/T 40429-2021标準,對汽車駕駛自動化進行了相似的分級。國内外相關立法及研究針對的都是L3級及以上智能等級的汽車,它們才是自動駕駛汽車交通事故相關刑法學研究的對象。

關于自動駕駛汽車交通事故,有兩個基本的刑法問題。其一是刑法是否應當介入自動駕駛汽車事故的處理?有學者認為,為了促進自動駕駛汽車的發展和應用,刑法應秉持謙抑立場,以侵權賠償和強制保險機制來應對自動駕駛汽車交通事故,“理性面對自動駕駛汽車而刑法……不應主動介入”,“如果社會欣然接受(embrace)與自動駕駛汽車相聯系的便利、機會和安全保障,那麼也應當樂于接受這樣的事實:(在可能非常罕見的情形下)機器人意想不到的行為将會導緻随機被害人(通常)可以預見的危害”。筆者認為,根據自動駕駛汽車技術原理和應用情況,新一代人工智能應用安全風險并不低,将便利與生命健康、重大财産安全相衡量,公衆難以接受這種“可以預見的危害”。民事經濟手段不足以使生産者努力提升自動駕駛汽車應用安全保障水準,刑法若持觀望立場,隻會縱容對公衆生命财産安全的漠視,既不利于保障公共安全,也不利于自動駕駛汽車高品質發展應用。其二是自動駕駛汽車是否可以成為犯罪主體或者刑事責任主體?這是人工智能系統能否成為犯罪主體問題的延伸。有學者認為“自動駕駛汽車能夠成為交通肇事的犯罪主體”,并提出删除資料、修改程式和永久銷毀作為自動駕駛汽車的刑罰。多數學者認為,賦予人工智能包括自動駕駛汽車以法律人格甚至犯罪主體資格是不妥的,“因為隻有人類可以了解權利與責任的意思,是以法律能力或者人格是與人類相關聯的”,“對規則的遵守預設了對規則的意思的了解,然而,機器人并沒有這種了解能力”,賦予人工智能以犯罪主體資格,隻會破壞刑法體系的協調性。發展人工智能是為了利用其智能技術,絕不可能允許其形成不受人類控制的自由意識和意志,進而與人類争奪利益和社會控制權,遑論先賦予其法律主體地位,等其“實施”所謂犯罪後,才用刑法進行特殊預防。即使是L5級自動駕駛汽車也隻是人類的智能交通工具,也如同人類培育出來用作交通工具的“良種馬”,不應作為犯罪主體來預防和懲治其自身“犯罪”。

學者讨論的其他刑法問題是,自動駕駛汽車所有者、使用者、乘客、算法研發設計者和生産者的相關行為是否能适用現行刑法規定?如果不能,應當如何建構新的刑事責任體系?本文在前述回應的基礎上,對以上兩個基本問題,從行為性質、注意義務等方面對相關觀點進行評述,分析自動駕駛汽車交通事故相關刑事責任問題。

自動駕駛汽車交通事故相關行為的性質

追究自動駕駛汽車交通事故責任人的刑事責任,首先應确定責任人、認定其行為性質,才能正确适用刑法。關于責任人及其行為性質,除了自動駕駛汽車犯罪主體說,主要有交通肇事罪說和差別定罪說。交通肇事罪說認為,“無人駕駛時代交通肇事罪的主體既可能是自然人,包括駕駛人、汽車使用者、使用人或控制人等,也可能是法人,即汽車生産者或自動駕駛系統的供應商”。差別定罪說認為,準自動駕駛汽車的測試駕駛員在開放道路上發生交通事故的,駕駛員可以按交通肇事罪定罪;在無人駕駛場景下,汽車所有者、使用者可以構成交通肇事罪,生産者、銷售商可以成立生産、銷售不符合安全标準的産品罪。這兩種觀點涉及不同智能等級、不同控制狀态下的自動駕駛汽車,有必要進行差別分析。

(一)自主要制狀态下自動駕駛汽車相關行為的性質

基于前文所述立場,自動駕駛汽車不應是刑法規制的對象,研究自主要制狀态下自動駕駛汽車交通事故,必須延長因果關系鍊條,歸因于自動駕駛汽車相關制造、使用等行為,是以,首先應分析這些行為的性質。

1.生産和使用自動駕駛汽車不構成交通肇事罪

犯罪構成将犯罪定型化,構成犯罪必須符合特定的犯罪構成,生産、使用自動駕駛汽車行為不符合交通肇事罪的犯罪構成,理由如下:(1)不符合交通肇事罪的犯罪前提和法益條件。構成交通肇事罪,其行為必須違反交通運輸法規,并直接危害公共交通安全。生産者隻有制造汽車行為,而無駕駛或使用行為,不符合前述條件。自動駕駛汽車的乘客、營運者、研發設計人員、銷售商、所有權人、乘客也不符合以上條件,他們不僅沒有控制汽車,也不負有防止交通事故的義務和能力,與事故後果沒有因果關系;(2)自動駕駛汽車的控制人、使用人或使用者不檢查自動駕駛汽車行為不構成交通肇事罪。根據道路交通法的規定,駕駛傳統汽車前必須檢查車況,這是駕駛行為的一部分,明知或應知車況會導緻車輛行駛過程中無法控制汽車而不作檢查,其不檢查行為與後續駕駛行為相結合才能危害道路交通安全,整體評價為違章駕駛行為。在自動駕駛汽車自主駕駛狀态下,自動駕駛汽車具有自檢測和自主要制功能,使用人、控制人或使用者不檢查車況行為不能單獨“實作一種行為人創設的危險”,否則,公共汽車檢修、安全檢查人員的過失行為都可以成立交通肇事罪。

2.對生産者以生産、銷售不符合安全标準的産品罪追究刑事責任缺乏事實和法律依據,也不能有效控制自動駕駛汽車安全風險

作為一種現代工業産品,自動駕駛汽車存在可發現的技術性安全風險。因汽車故障引發交通事故而追究生産者的法律責任時,必須證明汽車存在産品缺陷,即《中華人民共和國産品品質法》第46條規定的“産品存在危及人身、他人财産安全的不合理的危險;産品有保障人體健康和人身、财産安全的國家标準、行業标準的,是指不符合該标準”。目前,完全自動駕駛汽車缺乏安全标準,判斷是否存在産品缺陷的标準是産品是否存在“不合理危險”。關于産品的不合理危險,該法第41條規定了三種免責事由,與自動駕駛汽車關系緊密的是“将産品投入流通時的科學技術水準尚不能發現缺陷的存在”。而在目前及未來較長時間内自動駕駛汽車都會存在“開放組織風險”,即“基于非結構化環境的複雜性……預先確定每一種狀态都包含在系統内部也是不可能的”,導緻其智能系統對路況的識别、分析和決策能力有限。例如,智能系統的識别算法“仰賴适當亮度照明與通暢視野,例如在光度過強或過低的環境下可能導緻‘EyeSight’系統無法正常運作”,2021年3月發生在美國底特律的特斯拉汽車撞擊大貨車案就屬于此類“不合理安全風險”導緻的交通事故。同時,智能系統不可能應對各種緊急路況,不存在訓練出全路況決策的可能性,如不可能提供老人、兒童、障礙人士等特殊人員闖入車流的場景來訓練出适當的識别和決策算法。以上産品能力的缺陷在目前科學技術水準下并非不能預見和發現,不能适用前述科學技術水準局限的免責事由。

制定适當的自動駕駛汽車産品安全标準也存在一定的困難。如果國家設立高安全标準,會延遲自動駕駛汽車的應用,與加快人工智能應用的國家戰略相背離;如果設立低安全标準,對社會公衆而言無異于頒發“殺人執照”,即生産者隻需要承擔賠償金,就能生産、銷售存在不合理危險的汽車,無論交通事故多麼嚴重,都因其符合安全标準而不成立生産不符合安全标準的産品罪,進而将賠償金轉變為經營成本。這不僅會嚴重損害法律的公正性,也不利于自動駕駛汽車的普及應用。由于自動駕駛汽車(特别是L4、L5級汽車)研發難度大、測試周期長,出于立法穩定和確定安全的考慮,安全标準可能長期缺位或隻設定原則性标準,導緻發生自動駕駛汽車交通事故時,無安全标準可以适用,導緻對生産者不能按生産不符合安全标準的産品罪定罪。

即使能夠為自動駕駛汽車制定寬嚴适當的安全标準,也隻能保證自動駕駛汽車在出廠時能夠安全處置有限路況,不能防範其投入應用後因算法自主學習産生的安全風險。自動駕駛汽車智能系統應用的是新一代人工智能技術,具有自主學習和修改算法功能,會受駕駛員、行人和道路裝置設施運作狀況的影響,投入應用後其智能系統的算法必然不同于出廠傳遞時的狀态,在不規範、不安全的道路交通環境裡學習後,可能變得不遵守道路交通規範、不能安全處置路況。微軟公司的聊天機器人Tay上線首日就在與使用者交流中“變壞”,證明了機器學習算法的這一特性。如果開放自動駕駛汽車的學習功能,其傳遞應用後的算法變化是生産者不能控制的,與生産者的生産行為、交通事故之間形成“淩駕因果關系”,進而難以認定生廠商的生産行為與交通事故之間存在刑法因果關系。歐盟法律委員會《關于機器人民事法律規則的建議》提到,機器人的學習能力或自主性越強,其他各方的責任就越低,對機器人的“教育”時間越長,“教師”的責任就越大。是以,自動駕駛汽車傳遞後,生産者不應對其自我學習和其他人“教育”所産生的後果承擔責任。但是,如果為了控制自動駕駛汽車的安全風險而不開放其自主學習功能,由生産者定期更新其算法,則将會限制自動駕駛汽車的發展應用,同時,也隻能防止算法自主學習引起的安全風險,并沒有解決前述安全标準問題。

(二)警覺接管狀态下自動駕駛汽車相關行為的性質

警覺接管狀态僅存在于L3級自動駕駛汽車應用過程中,無論自動駕駛汽車是否發出接管警示,駕駛位上的人員(以下簡稱“駕駛位人員”,大陸《汽車駕駛自動化分級》将其稱為“動态駕駛任務後援使用者”)都必須對路況保持警惕并随時準備接管汽車控制權。德國2017年通過的《道路交通法第八修正案》規定,自動駕駛汽車使用者在汽車自動駕駛期間承擔警覺和接管義務。大陸道路交通安全法沒有自動駕駛汽車相關規定,2018年《智能網聯汽車道路測試管理規範(試行)》(以下簡稱“《網聯車管理規範》”)第18條規定了相似的監控與接管義務。如果駕駛位人員接管了汽車控制權且有能力避免交通事故,同時符合交通肇事罪的其他構成條件的,可以認定為交通肇事罪。值得讨論的是,自動駕駛汽車未發出接管提示,或者雖然發出接管提示,駕駛位人員沒有接管汽車行為的刑法性質,對此存在多種觀點。

第一種觀點認為自動駕駛汽車與駕駛員是共同駕駛人。美國交通部檔案《準備迎接未來交通:自動駕駛汽車3.0》擴充了駕駛者和操作者的定義,使之涵蓋自動駕駛系統,開啟自動駕駛模式的人也被視為駕駛者,對自動駕駛汽車交通安全負有終極責任,駕駛位人員因未履行警覺接管義務構成交通肇事罪。然而,這種做法在大陸行不通,原因是:(1)大陸道路交通安全法不承認自動駕駛系統的駕駛員地位,該裝置控制汽車的活動不是刑法或道路交通管理法意義上的駕駛行為。(2)交通事故發生時,駕駛位人員沒有控制汽車,沒有實施交通肇事罪的駕駛行為。不接管汽車不同于駕駛汽車行為,前者是應當控制汽車的不作為,而後者是積極的控制行為,将前者認定為駕駛行為,實際上是讓駕駛位人員為不完善的自動駕駛技術“背鍋”,有失公平。(3)駕駛位人員的行為是在場性的安全控制行為。設定駕駛位人員的目的是用人類駕駛員的能力消減現階段自動駕駛技術引起的安全風險,防止自動駕駛系統引發交通事故而不是駕駛汽車。大陸《汽車駕駛自動化分級》将其定義為後援使用者,隻要求其發揮後備援助作用,其僅在接管汽車“執行部分或全部動态駕駛任務時成為駕駛員”。是以,自動駕駛汽車自主行駛和駕駛位人員不接管都不是駕駛行為,不應認定為共同駕駛。

第二種觀點認為駕駛位人員是車輛駕駛員。《北京市自動駕駛車輛道路測試管理實施細則(試行)》第24條規定:“測試車輛測試期間發生交通事故或交通違法行為,認定測試駕駛員為車輛駕駛員。”前述《網聯車管理規範》第25條規定:“在測試期間發生交通事故,應當按照道路交通安全法律法規認定當事人的責任,并依照有關法律法規及司法解釋确定損害賠償責任。構成犯罪的,依法追究刑事責任。”但是,以上規定僅能适用于駕駛員接管汽車後、在公共交通管理區域發生交通事故的責任認定。如前所述,駕駛位人員的行為不是駕駛行為而是安全控制行為,而且,前述《網聯車管理規範》第7條規定,“測試車輛應在封閉道路、場地等特定區域進行充分的實車測試”,該區域不是公共交通管理的範圍,不符合交通肇事罪的危害行為和犯罪場所條件,駕駛位人員隻可能成立其他過失犯罪,如重大責任事故罪或過失緻人死亡罪。

第三種觀點認為駕駛位人員的行為是監督管理過失行為。有學者認為,“駕駛人處在一種管理監督自動駕駛的地位……準自動駕駛系統顯然不能作為人,可以作為一種特殊的物。駕駛人和制造者都有對該物進行管理的義務……可以考慮駕駛人對于自動駕駛系統的信賴關系對于駕駛人管理監督過失責任的影響”,将駕駛位人員的不接管行為認定為監督管理過失行為。這種觀點值得商榷,理由如下:(1)駕駛位人員的不接管行為不能構成監督過失行為。監督過失有狹義和廣義之分,前者是指“與實施直接使結果發生的過失(直接過失)的行為人(直接行為人)相應,處于指揮、監督直接行為人的立場的人(監督人)怠于應當防止該過失的義務的情況”。所謂廣義的監督過失是指除了狹義的監督過失,還包含管理過失的過失。所謂管理過失,指由于管理人對物的裝置、機構、人的體制等的不完備本身與結果發生有直接聯系的直接的過失。”自動駕駛汽車或其智能駕駛系統不是刑法意義上的主體,對其不能成立監督過失行為;(2)駕駛位人員的不接管行為也不能構成管理過失行為。管理過失是渎職行為,以行為人具有管理職權為前提,而前述警覺、接管隻是直接防止危害結果發生的作業行為,并非職權行為。監督過失理論起源于畏懼感論,由于管理過失行為人不在事故現場,缺乏對具體危害結果的預見可能性,按新舊過失論都不能認定為過失犯,進而将抽象的、模糊的預見可能性作為認定存在管理過失的依據。而駕駛位人員不接管行為發生于事故現場,能夠預見具體危害後果,不适合運用監督過失理論解釋。

(三)緊急路況算法控制的刑法性質

交通事故往往發生于突發緊急路況的進行中,人類駕駛員受心理因素影響會有不确定的處理方式和後果,而自動駕駛汽車由其智能系統算法控制,處理方式及其結果被認為具有預定性、穩定性,可能對相關特定人群的安全構成嚴重威脅,有必要研究該算法決策的刑法性質。

算法控制不是刑法意義上的行為,研究對象隻能是算法制造和使用行為。有學者認為,“如果行為人故意利用自動駕駛汽車實施法益侵害行為,我們當然可以借助現有理論如間接正犯來說明行為人承擔刑事責任的根據”,将自動駕駛汽車及其算法視作行為人利用的無責任的意識主體。筆者認為,自動駕駛汽車算法不受正常使用者控制,使用者不能預見何時發生緊急路況、算法如何控制汽車并造成何種結果,其啟動自動駕駛汽車和設定目的地的行為不違反交通法規,沒有引起法律不允許的風險,不應将交通事故的後果歸責于使用者。交通肇事罪是過失犯,不存在故意使用自主要制狀态下的自動駕駛汽車犯交通肇事罪的可能性,隻能是行為人控制自動駕駛汽車實施故意犯罪,受控制的汽車是其犯罪工具,不能用間接正犯理論來予以解釋。是以,需要研究的是算法制造行為。

緊急路況決策算法隻可能由生産者預先設定。自動駕駛汽車的新一代人工智能系統具有自主學習、分析和決策能力,其正常行駛時不受包括生産者在内的任何人的幹預,這種能力來自于生産者傳遞時安裝的初始算法及對應用中擷取資料的學習。而緊急路況決策算法與之不同,不可能通過汽車傳遞後自主學習生成,因為特定汽車極少處理緊急路況,也不可能在交通事故中學習,否則,将付出無法承受的生命和财産代價,對公共安全造成極大的威脅,因而隻可能由生産者預先設定。可見,相關交通事故與生産者的算法制造行為具有刑法因果關系。關于算法制造行為的刑法性質,有影響力的觀點有“緊急避險說”和“允許的風險說”。

1.緊急避險說及其不足

“電車難題”是自動駕駛汽車算法決策所面臨的主要刑法問題。“電車難題”原本是人類駕駛員操作軌道電車遇到的選擇困境問題:在必然要侵害某一方生命,且一方為多數人、另一方為少數人或自己情形下,如何選擇才具有合法性?它不僅是一個法學問題,也是哲學上的道德難題。“在道德哲學中,善和公平是兩個最重要的次元,然而,兩者在很多時候會提出互相沖突的要求”,學者們基于功利主義、自由主義和“德性主義+共同體主義”等不同立場提出了不同的選擇方案。與哲學上的分歧相似,德國學者根據緊急避險規定提出了多種觀點,如“不作為義務(‘不許殺人!’)比作為義務(‘救X1和X2!’)更為重要”、“人的生命可以在量上進行權衡”、“多人生命的喪失,即便能疊加出一個總損失來,也不可能存在一個承擔總損失的總主體。不是每個人生命(不可估量)的無限價值,而是不允許對許多條人命相加,阻止了多條人命比一條人命更重的可能性”、“法不能要求某人為他人而犧牲自己的生命”等。然而,符合《德國刑法典》第34條和第35條規定的情形有限且存在争論。例如,為了不撞上路上的某一個親屬而撞向人群,雖然被認為是符合《德國刑法典》第35條的阻卻責任的緊急避險行為,但與“多數人生命比少數人生命更重要”的觀點相悖。自動駕駛汽車算法決策困難與之相同,學者們往往用緊急避險規定及相關理論來分析生産者的算法制造行為。

德國刑法學者托馬斯·魏根特認為,對于完全自動控制的汽車,其刑事可罰性問題“從駕駛人員轉移到為汽車預置了操控算法的别的人員,即程式設計員、生産者以及經銷商,這裡的每個人都明知其程式設計而研發和營銷這種汽車并讓其上路”,“生産者将會首先以人駕駛汽車時實際遇到的類似情形的解決辦法為标準:方向盤前的人所作的行為決定,如果是法秩序所允許的,那麼相似設計的算法所導緻的決定肯定同樣是合法的解決辦法”, 并運用德國刑法中的緊急避險制度提出生産者設計算法時應遵循人數優勢、随機決策和不犧牲乘客的結論。大陸有學者認為,生産者“在其能夠預測到的事故範圍内,将自動駕駛車内乘車人員的生命安全優先于車外人員及自動駕駛車本身的安全作為第一順位是合理的”。

筆者認為,以上觀點不妥,生産者生産和應用緊急路況處理算法不滿足緊急避險的條件。生産者生産和應用算法時沒有面對人類駕駛員在緊急避險時所面臨的正在發生的危險,其行為并非迫不得已而采取的避險行為,而是一種深思熟慮的、消解自己法律風險、增加商業利益的故意行為。魏根特教授也認識到欠缺緊急避險條件,“對于生産者來說,汽車的程式設計更多的是在各不相同而且完全抽象的人之間,以冷靜的考慮配置設定尚在遠處的生存機會”,“汽車的生産者在根據抽象特征程式設計的時候,就已經決定了在所預見的沖突狀況中應當犧牲哪個人或者哪一些人;相反,駕駛員看見的是眼前的人,并且他要根據具體的情形,作出自己的決定”,但認為“可以把超法律的免責的緊急避險基本思想用于這種汽車的生産者”。該觀點不僅超越了刑法規定,在理論上把解決傳統緊急事态的行為責任理論強加于非适格的新社會行為,難言合理,其所謂超法規的免責事由理論在司法實踐中不可能作為免除生産者刑事責任的依據。

2.允許的風險說及其不足

由于緊急避險說存在以上不足,有學者提出允許的風險說,認為“如果自動駕駛系統不能避免在極少數例外情況下造成人類死亡或重傷,那麼對它的生産和投放市場不違反注意義務”。“隻有被允許的危險可能排除對設計行為的歸責”,如果程式設計行為能夠通過普遍性、社會利益性和社會接受性檢測,就可以作為被允許的危險。

如前所述,自動駕駛汽車存在安全風險,相關交通事故越來越多和嚴重,認為前述自動駕駛汽車隻“在極少數例外情況下造成人類死亡或重傷”缺乏事實依據。即使未來自動駕駛汽車更安全,也不應讓生産者任意設定緊急路況處置算法,否則,生産者會出于營利目的生産側重保護乘客而犧牲公共安全的汽車,明顯不利于防控自動駕駛汽車安全風險。

以上觀點在理論上也難以自洽。允許的危險理論不能為免除生産者的法律責任提供理論支撐。一般認為,允許的風險理論是限定過失犯罪成立的理論,目前該理論有被泛化應用至故意犯罪的趨勢。克勞斯·羅克辛教授認為:“一旦行為人處在被容許之風險的範圍以内,那麼即便他對已經發生的風險實作結果持積極追求的态度,也不能認為他實施了有目的的殺人行為。”該觀點突破了将允許的風險理論隻适用于過失犯罪的範圍,将其擴張适用于阻卻故意犯罪的構成要件符合性或違法性,是以遭到多數學者的反對。“‘被允許的風險’的概念已經在所謂的客觀歸責的背景下加以考慮。然而客觀歸責的範疇過于模糊……客觀歸責理論越來越像一個僞教義學‘黑洞’,它很可能吸食、拉平以及最終吞噬數十年來艱難取得的大量刑法教義學分殊化成果。”被允許的風險針對的應是具體案件而非一般的技術應用風險,“風險的法律屬性自始與行為人是否現實地具備結果避免能力不可分離,填充規範僅在行為人缺乏能力的前提下才具有決定被容許的風險是否成立的功能”,并非隻進行概括性衡量。生産者制造算法是事前深思熟慮的故意行為,不同于過失的交通肇事行為,也不同于交通事故中駕駛員迫不得已情形下的選擇傷害行為,将允許的風險理論用于存在争議的領域,不能為生産者制造算法行為的免責提供穩固的理論基礎。

所謂的社會接受性檢測标準既不合理也不具有現實操作性。在工業社會曆史上,無論對傳統汽車或其他安全産品,都沒有将通過社會接受性檢測作為免除生産者法律責任的依據,因為人工智能技術的特殊性就采納這一标準缺乏充分的理由。而且,受益于該标準的主要是生産者,使用者居中,受害的主要是公衆,讓生産者獲得主要利益且不承擔安全管理義務,這種利益和風險配置設定方案明顯不公平,難以獲得社會的廣泛認同,不可能通過所謂的“社會接受性檢測”。

基于以上分析可以認為,在目前大陸立法情況下,駕駛位人員的行為并非都構成交通肇事罪行為,也不是管理過失行為;對生産者追究生産、銷售不符合安全标準的産品罪的刑事責任,既不合理合法,也不能有效控制自動駕駛汽車交通安全風險;生産者制造緊急路況處置算法的行為不能用緊急避險或“允許的風險”理論解釋。

自動駕駛汽車交通事故責任人的注意義務

追究自動駕駛汽車交通事故責任人的刑事責任,必須認定其注意義務。在法規範意義上,注意義務和注意能力是分離的,“注意義務本質上是能力維持規範,其機能在于将行為人遵守行為規範的能力維持在一定的水準之上”。多數學者認為自動駕駛汽車生産者和駕駛位人員應承擔避免交通事故的注意義務,由于二者的注意義務根據不同,需要對二者的注意義務和注意能力分别讨論。

(一)駕駛位人員的注意義務

1.駕駛位人員注意義務的範圍

有學者認為,自動駕駛汽車的駕駛位人員是輔助駕駛員,其“注意義務可以是不完全的……具體注意義務,與法律或自動駕駛車輛對其職能的要求直接相關”,主要有一般交通運輸管理法規、有關自動駕駛車輛的特别交通運輸管理法規和汽車購銷合同中的要求等。關于交通運輸管理法規規定的注意義務,美國、德國交通法規允許L3級及以上的自動駕駛汽車應用,并規定其駕駛位人員承擔防止自動駕駛汽車引起交通事故的警覺接管義務,若違反該義務造成交通事故的,可以構成交通肇事罪。而大陸目前隻允許自動駕駛汽車在警覺接管狀态下的測試活動(或示範區内試營運)。研究駕駛位人員的注意義務不能脫離各國特定的法制環境。

目前大陸自動駕駛汽車尚處于測試階段,駕駛位人員的相關行為屬于生産測試活動,其注意義務來源于規制測試活動的法律規範。駕駛位人員駕駛汽車在公共交通管理區域内發生交通事故的,屬于普通的交通肇事罪,不屬于本文研究的内容。如前所述,駕駛位人員在測試過程中未接管汽車不是交通肇事罪的危害行為,其行為性質是測試作業,違反的不是交通安全法規,而是保障自動駕駛汽車測試安全規範,隻能構成生産安全責任事故罪。這二罪的注意義務性質不同,交通肇事罪的注意義務源于禁止規範,即禁止駕駛員實施違反交通安全法的駕駛行為引起危害公共交通安全的結果,而後罪中駕駛位人員的注意義務來源于指令規範,即指令駕駛位人員積極防止自動駕駛汽車引起危害後果,其不接管汽車是違反測試作業安全保障義務的不作為。目前大陸針對自動駕駛汽車應用啟動了道路交通安全法的修法程式,公安部《道路交通安全法(修訂建議稿)》第155條規定駕駛位人員承擔警覺接管義務,如果未來該法通過,駕駛位人員的注意義務不再僅源于車輛測試規範。但主管部門對在道路交通法規中規定的前述警覺接管義務是否合理尚有疑問,前述法條也未獲通過。

關于合同約定能否成為注意義務的來源,有學者持肯定意見,認為“生産者等對産品的要求與規範,雖然不是法律,卻是具有限制力的承諾。同時,對于輔助駕駛者而言,隻要接受這種要求或者規範,就意味着願意承擔相應的注意義務”。筆者認為,自動駕駛汽車的購銷合同不應視作駕駛位人員注意義務的來源,理由是:首先,L3級自動駕駛汽車的購銷合同不是普通的民事合同。民事合同不得顯失公平和損害他人利益,L3級自動駕駛汽車的安全行駛功能有限,存在引起交通安全的風險,其購銷合同要求駕駛位人員保持警覺、随時接管或經提示接管汽車,實際上是向消費者轉移安全風險和法律責任。如果放任生産者随意轉移風險,不僅會不當擴大駕駛位人員注意義務的範圍,還會因駕駛位人員處理風險能力的不足而損害公共安全利益。而且,民事合同能否都成為作為義務的來源,在刑法學理論上也存在争議。其次,駕駛位人員不接管汽車是過失犯,其注意義務應當像其他責任事故犯罪一樣,由法律法規和規章制度明确确定,否則容易突破以處罰過失犯罪為例外的刑法原則。隻有與事故具有規範關聯關系的,才能成為刑法意義上的注意義務。前述《網聯車管理規範》以及大陸道路交通安全法、安全生産法、其他行政法律法規及規章制度規定了駕駛位人員的注意義務,但是,違反這些義務并非都會造成法定危害結果,不能都作為駕駛位人員過失犯罪的注意義務。隻有能夠“升高危險的幅度達到大于被容許之危險的程度”的注意義務違反行為才可以被歸責,與危害結果形成規範關聯的義務才是駕駛位人員過失犯罪的注意義務。

2.駕駛位人員的注意能力

成立過失犯罪,行為人不僅應負有注意義務,還應具備注意能力,追究過失犯罪的罪責應以行為人的注意能力為前提,注意能力起到限制認定注意義務違反的作用。

(1)駕駛位人員未接管汽車期間的注意能力

根據前述立法,自動駕駛汽車發出接管提示,或者駕駛位人員發現車輛處于不适合自動駕駛的狀态時,駕駛位人員應當立即、及時接管汽車。在前者情形下認定駕駛位人員具有注意能力一般不存在問題;但是,如果自動駕駛汽車未發出接管提示,駕駛位人員能否以信任自動駕駛汽車而不接管,其信任是否影響其注意能力的認定,值得讨論。否定的觀點認為,對自動駕駛汽車“在高沖突環境等特定場景中,應當限制信賴原則适用,生産者等(包括駕駛位人員--筆者注)應當合理保證自動駕駛車輛不至于釀成不必要的事故”。肯定的觀點認為,“附條件自動駕駛模式中,駕駛人對系統的信賴程度較高,不具有随時注意駕駛環境的義務”,也有學者提出附條件的信賴原則适用觀點,“因為汽車是處于系統控制當中,駕駛人員可以被認定對系統具有信賴基礎,則可以适用信賴原則。但是,畢竟汽車還是處于準自動行駛系統的控制,是以很難通過信賴原則完全免除駕駛人員的責任。這種情況下,自動行駛系統和駕駛人員可能存在共同過失或者過失競合,不直接認定适用信賴原則……駕駛員在此時能夠判斷出自動行駛系統出現故障,能夠作出人為反應避免事故發生,卻沒有作出相應的避免措施,可以認定駕駛人員存在過失的心态”。

肯定說認為,自動駕駛系統具有刑法上的犯罪過失心态,與駕駛位人員形成共同過失或過失競合,存在前文分析的基礎性缺陷。肯定說将信任原則的适用以駕駛位人員不具有“發現車輛處于不适合自動駕駛的狀态”能力為前提,此與自動駕駛系統的不可預測性技術特性不相符,實際上是不适用信賴原則,理由詳述如下:首先,在自動駕駛狀态下駕駛位人員不具有注意能力。自動駕駛系統具有自主學習、分析和決策能力,其分析和決策的過程不同于人類駕駛員的思維邏輯,具有不可預見性和不可控制性,要求駕駛位人員對自動駕駛汽車的路況處理能力有預見性是不現實的,最終隻能以其駕駛傳統汽車的标準來判斷車輛是否“處于不适合自動駕駛的狀态”,而這不是在判斷自動駕駛汽車是否處于适合駕駛狀态。其次,以駕駛位人員注意能力為基礎的信賴原則适用标準背離自動駕駛汽車應用目的。自動駕駛系統與汽車網絡服務中心、周邊的自動駕駛汽車以及其他智能交通管理裝置互通資訊,相比于有限視聽感覺能力的人類駕駛員,其路況感覺和協商決策能力更強,同時,自動駕駛系統與機械系統的協作程度更高,能夠以更快速度操控汽車。是以,隻有駕駛位人員的路況處置能力比自動駕駛汽車更強,采取前述标準才能實作自動駕駛汽車應用的安全和便捷目标,否則,實質上是要求駕駛位人員基于自己的判斷提前幹預、處置自動駕駛汽車能夠處理的路況。由于絕大多數駕駛員不是“賽車手”,這必然使自動駕駛功能的應用環境縮小,如在車流較密集的城市,自動駕駛汽車既沒有減輕駕駛員的負擔,也沒有降低人工駕駛的安全風險。再次,在目前自動駕駛汽車技術安全風險無法有效消除的情況下對駕駛位人員适用信賴原則缺乏理論和法律依據。信賴原則的适用前提是自動駕駛汽車本身能夠有效控制安全危險,對L3級自動駕駛汽車駕駛位人員規定警覺和接管義務,實際上是要求其不能完全信任自動駕駛系統,并以其人力消減自動駕駛技術引起的安全風險。而且,在傳統汽車應用環境下發展起來的信賴原則針對的不是汽車,而是其他負有遵守交通安全法規定之義務的交通參與者,不适于解決自動駕駛汽車應用中的注意義務配置設定問題。

(2)駕駛位人員接管後的注意能力

駕駛位人員接管汽車後,對其注意能力的要求更高,不應按照傳統汽車駕駛員的注意能力認定犯罪過失,如其正常發揮駕駛能力也無法避免交通事故的,不構成過失犯罪。

首先,駕駛位人員接管L3級自動駕駛汽車的環境條件惡劣,要求有更高的注意能力。駕駛員駕駛傳統汽車是在車輛靜止狀态下,對路況有寬松的觀察、判斷時間,逐漸提升汽車行駛速度,對交通安全具有完全的控制能力。而駕駛位人員接管L3級自動駕駛汽車是在汽車行駛過程中,無論是自動駕駛汽車發出接管提示,還是駕駛位人員觀察後主動接管,面對的是自動駕駛汽車無能力處置的緊急、困難路況,猶如從快要昏倒的馬車夫手中接過險境中馬車的缰繩,對駕駛人員避免交通事故的能力提出了更高的要求。

其次,不應根據不合理的接管要求認定駕駛位人員具有注意能力。前述立法規定,自動駕駛汽車發出接管提示或者發現車輛處于不适合自動駕駛的狀态時,駕駛位人員應當立即、及時接管汽車,這一規定不合理。法律要求駕駛位人員接管汽車,是為了維護公共交通安全、解除自動駕駛汽車引起的安全風險,而将接管條件設定為“立即”、“及時”接管,沒有考慮駕駛位人員的實際能力,反而增大了安全風險。合理的接管條件應以人為本、因人而異。2018年德國準許了《自動駕駛倫理指南》,該指南第17條要求消除自動駕駛系統突然将車輛控制權交給人類駕駛員的情況,第19條要求自動駕駛汽車在緊急情況下自主進入安全狀态。如果駕駛位人員認為有能力在行駛中控制住汽車的,可以由其決定接管時間,同時承擔接管失敗的法律責任;如果駕駛位人員自認為無法接管的,應允許其在自動駕駛汽車停車後接管,否則将使駕駛位人員陷入兩難境地,無論是否接管汽車都要對交通事故承擔刑事責任。

再次,駕駛位人員接管自動駕駛汽車後無能力避免交通事故,應認定為不可抗力事件。依照前述法律規定,駕駛位人員必須接管汽車,如果其不具有處置緊急路況能力而發生交通事故的,不應認定成立交通肇事罪,否則無異于向駕駛位人員轉嫁風險而非利用人工保障道路交通安全。如果駕駛位人員的接管行為加重了交通事故損害,對加重的交通事故應按交通肇事罪定罪處罰,考慮其在緊急狀态下接管汽車時精神慌亂,難以準确判斷和作出正确的駕駛行為,應适當減輕其刑事責任,如果屬于無意識的反射動作,應當排除其行為的犯罪性。

(二)生産者的注意義務

雖然生産者不在自動駕駛汽車交通事故現場,但制造了有安全風險的自動駕駛汽車,并且能夠直接控制其行駛,是以有學者提出生産者應當承擔避免交通事故的法律義務。但也有人提出不同觀點。

否定說認為,生産者對自動駕駛汽車的判斷、決策和行駛活動缺乏事前的預見或避免可能性,故不負有注意義務;自動駕駛汽車“對社會造成的危險完全可能轉化為一種‘允許的風險’(日常生活的風險)”,隻有“生産者、設計者違反了國家标準或行業标準的情況下,才能認定其違反了注意義務”。該觀點将自動駕駛汽車的安全風險視作一般的産品安全風險,并将其視作“允許的風險”,主要使生産者、使用者受益,而使公衆受害,有失公允。而且,生産不符合安全标準的産品罪是故意犯罪,認為生産者違反的安全标準就是注意義務,與通常讨論的過失犯的注意義務不屬于同一研究範疇。

肯定說認為,原本由傳統車輛駕駛員承擔的基本注意義務轉嫁給生産者,生産者、程式員等“有使自動駕駛車輛知道的注意義務”,内容是使自動駕駛汽車知道(交通運輸管理法規)、執行高安全标準、限定在特定區域行駛等特别政策性規定。該觀點顯然以新新過失論為理論基礎,新新過失論認為“作為注意義務的前提的預見可能性,不一定需要具體的預見,對危險的發生隻要有模糊的不安感、危懼感就夠了”,生産者不能預見和避免具體事故,但了解自動駕駛汽車的自主學習功能,對其存在失控風險存在危懼感,進而對交通事故有預見可能性和注意義務,因而要承擔過失犯罪的刑事責任。然而,國内外學者普遍不贊同新新過失論,批評其有結果責任傾向,不當地擴大了過失成立的範圍。而且,“對于同一行為所要求的注意義務,無論是業務者還是非業務者,應該是均等的。對生産者而言,生産制造自動駕駛機動車與非自動化駕駛機動車的業務上的義務是同一的”。該觀點顯然不利于自動駕駛汽車産業的發展,故持該觀點的學者轉而認為“人工智能系統根據學習算法生成的新規則作出決斷或者改寫程式,是生産者、程式員等難以預料和控制的。如果自動駕駛車輛據此作出危險行動,就屬于被允許的危險,阻卻生産者、程式員等的注意義務”,但沒有解釋能導緻生産者“危懼感”的人工智能算法何以成立“被允許的危險”。

共同注意義務說認為存在“作為自動駕駛車輛的加害主體之間的注意義務的競合”,其中“包括自動駕駛車輛的生産者、人工智能系統的軟體或硬體供應商、程式員、所有人、使用者、輔助操作員等之間的注意義務的競合”,如果多方都有過失,“乃至造成安全事故,則過失各方均應對此承擔過失責任”。關于共同過失犯罪,持肯定論者認為,“大陸《刑法》第25條第2款的規定表明,對共同過失犯罪同樣是采取單一正犯的定罪處罰規則。而單一正犯體系對數人參與犯罪(包含數人共同過失犯罪)的情形,也是不區分參與行為的形式的”,多數學者不支援以上觀點,即使站在其立場上,共同注意義務說也不能合理支援生産者注意義務肯定說,理由是:(1)前文分析的生産者注意義務的預見可能性并沒有因共同注意義務的提出而得到解決;(2)該理論隻能解決責任主體的注意義務已明确情形下的定罪問題,而不應先斷言其有共同過失,後據此認為生産者有注意義務,更不能不查明其注意義務内容,就籠統地追究生産者和其他人共同過失犯罪的刑事責任;(3)生産者與駕駛位人員分别處于汽車的生産和應用環節,二者無行為和意思上的聯系(更談不上共同的犯罪行為和犯罪意思),更沒有規範關聯的注意義務,認為二者有整體注意義務,缺乏事實、法律依據及合理的理論支撐;(4)在L4、L5級自動駕駛汽車應用中,駕駛位人員不存在注意義務和控制行為,自動駕駛汽車的生産者和銷售者等不直接引起危害結果,在沒有實行犯的情形下,共同過失犯罪理論無适用的基礎。

通過以上分析可以認為,自動駕駛汽車的駕駛位人員的注意義務與注意能力不同于傳統汽車的駕駛員,将其行為都認定為交通肇事罪既不合法也不合理;生産者注意義務肯定說和否定說都不能兼顧防範公共安全風險和促進自動駕駛汽車發展的需要,不能理論自洽,難以為追究生産者的刑事責任提供有力的理論支援。

自動駕駛汽車交通事故犯罪的新刑事責任體系建構

現行刑法不适應智慧交通活動,不利于遏制自動駕駛汽車交通安全風險,應根據自動駕駛汽車應用的特性建構新刑事責任體系。傳統汽車交通事故犯罪的刑事責任體系是分責制結構,由生産者和駕駛員在汽車生産和應用階段分别承擔避免交通事故的義務。在自動駕駛時代,将不再有人類駕駛員在應用階段承擔避免交通事故的義務,無論如何解釋現行刑法及擴充傳統刑法理論,都無法填平工業社會到資訊社會再到智慧社會的“時代鴻溝”。解決自動駕駛汽車交通事故的刑事責任問題,必須适應智慧交通的客觀實際,創新交通刑法理論,建構以生産者全過程責任為中心的新刑事責任體系,才能有力保障智慧交通的安全發展。

(一)新刑事責任體系應貫徹的原則

建構新刑事責任體系需要有所堅持,有所突破。應堅持自動駕駛汽車是人為、人用之物的基本立場,客觀應對其引起的新技術安全風險,在充分保障公共安全的前提下促進自動駕駛汽車的發展和應用。自動駕駛汽車的安全風險形成于生産、實作于應用,生産者對自動駕駛汽車應用安全的管理更直接,管理能力更強,其責任應突破生産階段的産品安全責任,延伸到應用階段的安全管理責任。具體而言,新刑事責任體系應當貫徹以下原則。

1.科學防範風險原則

自動駕駛汽車不是新的智慧物種,不應被賦予犯罪主體或刑事責任主體的法律地位,應當客觀認識新一代人工智能技術的特性,将分析研究建立在科學事實而非幻想的基礎上,“輕率地将人工智能拟制為犯罪主體将進一步加劇風險社會中‘有組織的不負責任’現象,不利于從源頭上控制不合理的風險”。另一種不客觀的認識是将自動駕駛汽車應用風險視作極少發生的“允許的風險”,使公衆成為“社會性接受風險的被害人”。生産者按照自動駕駛汽車安全标準生産汽車,不能消除自動駕駛汽車應用階段的安全風險,違背客觀事實斷言自動駕駛汽車安全風險極低,進而将其對社會公衆的傷害“合法化”,是對公衆“劫貧濟富”式的制度性侵害。隻有适應自動駕駛汽車安全風險的特性,建構新刑事責任制度,有效控制安全風險,才是科學的解決方法。

2.适度風險責任原則

貝克教授提出:“在發達現代性中,财富的社會化生産與風險的社會化生産系統相伴……生産力在現代化程序中的指數式增長,使風險和潛在的自我威脅的釋放達到了前所未有的程度。”這種社會現代化的風險同樣反映在智慧交通領域,自動駕駛技術應用給現代社會帶來新的社會安全風險,随着自動駕駛系統完全替代人類駕駛員,傳統的人類駕駛員分擔應用階段安全責任的機制不再發揮作用,需要适應自動駕駛技術特性建構新的風險防範體系。在目前風險社會環境下,現代刑法形成了風險責任原則,即風險由誰管控,誰就要對風險及其實作的後果承擔責任。“對創設風險的這種管轄,是基于這個原則:任何一個對事實發生進行支配的人,都必須對此答責,并擔保沒有人會因為該事實發生而遭到損害。支配的另一面就是答責。按照這一原則,任何人都必須安排好他自己的行為活動空間,從這個行為活動空間中不得輸出對他人的利益的任何危險。”适度風險責任不是指要求自動駕駛汽車帶來的福利與其招緻的風險成比例,因為自動駕駛汽車應用必須以安全為基礎,否則談不上創造社會福利。适度風險責任是指在設定自動駕駛汽車相關人員的安全責任時,應當依據其與安全風險形成的關系、風險控制能力、社會地位等進行合理配置設定。适度風險責任原則不同于刑法乃至整個公法領域的比例原則,後者是指犯罪與刑罰應具有衡平性,任何人不得因輕罪而受到重罰。不過,二者在責任設定上有一定的相似性,現代意義上的比例原則衍生出适當性、必要性和損害與欲達成目的之利益相均衡三原則,都強調責任承擔的适當性。貫徹适度風險責任原則,要求既不過度擴大生産者的産品安全責任,因為“‘無限’的訴訟壓力可能會減緩自動駕駛汽車的市場化程序”,也不将自動駕駛汽車安全風險接納為“允許的風險”,放棄對生産者持續提高自動駕駛技術安全性的要求,或者将其責任轉嫁給駕駛位人員,這隻會損害社會、企業和公衆等各方的利益。

3.生産者全過程防範風險原則

關于防範自動駕駛汽車交通安全風險的責任主體,基于前文分析,不應将自動駕駛汽車作為安全風險防範的責任主體,因為在邏輯上其不應同時成為防範風險的主體和客體。在L3級自動駕駛汽車應用中,駕駛位人員僅能發揮有限的協助防範自動駕駛交通安全風險的作用,後文将分析到,這種防範作用具有局限性甚至增大安全風險,這種風險防範模式将随着自動駕駛技術發展到高度和完全自動化階段而成為曆史。生産者是自動駕駛汽車安全風險的主要引起者,與自動駕駛汽車應用安全風險保持着事實與法律上的聯系,應當對其引起的風險承擔安全防範責任。對于高度和完全自動駕駛汽車應用,生産者是首要的風險防範主體,使其在生産和應用的全過程承擔風險防範責任是無可選擇的必然結果,這既是保障自動駕駛汽車安全應用的社會需要,也是自動駕駛汽車産業發展的前提和基礎。而且,自動駕駛汽車生産者不同于傳統汽車生産者,作為現代技術權力和資本權力的結合體,它不僅能夠控制自動駕駛汽車的産品安全品質,還能夠直接控制應用中的自動駕駛汽車,而其他任何主體包括社會管理部門都不具有這種強大的、直接的安全風險管理能力。使生産者對生産和應用全過程承擔安全管理責任與其安全管理能力相稱,是适度的風險責任配置設定。生産者承擔全過程風險防範責任,重點是對自動駕駛系統的安全管理責任,特别是要確定算法生産安全和汽車傳遞後算法應用安全。

(二)建構以生産者全過程刑事責任為中心的新刑事責任體系

前文分析到,生産者将成為保障自動駕駛汽車安全的唯一主體,建構自動駕駛汽車交通事故犯罪的新刑事責任體系,應當以生産者的全過程責任為中心。保留駕駛位的L3、L4級智能自動駕駛汽車發生交通事故時,其駕駛位人員僅在有限情況下承擔刑事責任。

1.生産者的全過程刑事責任

生産者的全過程刑事責任應當包括自動駕駛汽車生産階段的産品安全責任和應用階段的安全管理責任,是以,不僅需要新設應用階段的安全管理責任,生産階段的産品安全責任也需要進行相關制度的創新。

(1)生産階段的刑事責任

生産者生産、銷售不符合安全标準的自動駕駛汽車導緻嚴重後果的,應當按照生産、銷售不符合安全标準的産品罪追究刑事責任,制定适當的自動駕駛汽車産品安全标準是主要挑戰。自動駕駛汽車是智能産品,既有傳統的汽車元件,也有特有的自動駕駛智能系統,普通機械元件已有相應的安全标準,而智能駕駛系統特别是緊急路況算法安全标準則有較多的法律問題要解決。

智能駕駛系統安全标準特别是緊急路況處理算法直接關系到公共安全,生産者制作的算法應符合法律認可的安全标準,才能阻卻生産行為的違法性。目前各國在制定算法安全标準時遇到較大困難,2017年德國釋出了世界首份自動駕駛系統指導原則,但是,該指導原則并沒有給出明确的規則指導。學者們多運用法益保護、義務沖突和緊急避險等理論探讨算法規則。魏根特教授認為,雖然不能适用《德國刑法典》第34條的規定,但是,可以依據義務沖突的解決規則來設定算法,提出以下規則:(1)隻要生産者履行了較高等級的義務,其行為就可以合法化,并主張采納多數人優先保護規則;(2)車外要撞上的人數相同時,生産者自己不決策,通過設定随機決策算法,由算法随機決定;(3)在面臨車上乘客和車外要撞上的對象之間的選擇時,也要遵循前述兩項規則,但允許車上人員對人數對等情形有選擇權--保護自己;(4)生産者選擇保護乘客不能适用《德國刑法典》第35條的規定被免責,因其不是乘客的“有親密關系的親近之人”,但可以成為“在具體的兩難困境中給定的超法律的免責的緊急避險的‘前效應’,這種緊急避險絕大程度上可以認作是《德國刑法典》第35條的類推”,進而免除生産者的刑事責任。埃裡克·希爾根多夫教授否定人數比較規則,但肯定自我保護原則,他認為:“依據我們的道德認識或者我們的法秩序,是否允許彼此間的衡量,比如說殺害一個人相比殺害兩個人或者更多人而言,更易被接受。通說迄今為止都否定這樣一種衡量權限。這一觀點原則上仍然值得贊同:在一個擔負着人文主義價值的法秩序中不允許使任何人擔負容忍義務,為他人犧牲自己的生命。”大陸有學者按照德國刑法中的緊急避險相關規定和被害人同意理論,提出生産者無論選擇侵害第三者或車内人員都不能阻卻責任或阻卻違法。以上學者觀點沒有超出“電車難題”相關哲學和刑法學觀點的範圍,既無法律依據,也不盡合理。例如,前述多數人優先保護規則、乘客優先保護規則,在實際中就很難實行,因為在可接受的成本範圍内,自動駕駛汽車系統難以正确統計可能傷害的人數和嚴重程度,更難以識别不同年齡、身體殘障狀态的交通活動人員并進行适當的處置,是以,以上觀點難以獲得廣泛認同,不能成為司法實踐中判斷生産者刑事責任的依據,更不應成為算法安全标準的設計規則。

筆者認為,自動駕駛汽車是人工智能時代的新工業産品,會對公共交通安全帶來新的風險,國家制定的自動駕駛汽車算法安全标準應當以維護公共安全為宗旨,優先保護公衆的生命安全與健康,不應放任生産者随機選擇,更不應放縱其制造優先保護乘客而犧牲公衆的算法。公共安全優先的算法安全标準應當至少遵守以下規則:第一,不将危險引向公衆。當自動駕駛汽車遇到危及車内人員生命财産安全的緊急路況時,不得将危險轉移到公共道路上的行人和其他無路權競争關系的正常行駛車輛。例如,不能在處置緊急路況時,故意操控汽車撞向人行道上的行人或者對面道路上正常行駛的車輛。第二,不主動選擇犧牲公衆。該條規則與第一條規則具有一定的相關性,但與之不同,前者禁止制造危及公衆安全的風險,而本條規則是競争規則,禁止擇一選擇時主動選擇損害公衆。自動駕駛汽車遇到必然會導緻公衆或車内人員傷亡的緊急路況時,不得為了保護車内人員的生命健康,而主動選擇犧牲公衆的生命健康;當不可避免會損害不同群體的公衆生命健康時,如各車道上都有行人或車輛時,不得進行主動選擇,應以盡量避免發生事故為原則,采取盡可能安全的方式在原車道内減速停車。以上公共安全優先原則應當貫徹到處理各種路況的算法安全的具體标準中,并根據路況的發展變化及時調整和補充。唯有将公共安全置于安全标準的優先地位,才能促使生産者整體提升汽車的安全保障能力,設計制造出對公衆和乘客更安全的自動駕駛汽車,推動自動駕駛汽車産業向“更安全、更便利”的方向健康發展。

生産者生産和應用自動駕駛汽車算法系統必須嚴格遵守以上安全标準,防止自動駕駛系統自主形成緊急路況處置算法,或者在投入應用後自主修改原有算法,否則應當認定為生産不符合安全标準的産品。需要指出的是,生産者按照自動駕駛汽車安全标準(包括算法安全标準)生産汽車,僅僅能夠使其生産行為具有合法性,并不排除生産者對自動駕駛汽車應用安全承擔管理責任,包括刑事責任。

(2)應用階段的刑事責任

生産者拒不履行自動駕駛汽車應用安全管理義務并發生嚴重後果的,應當承擔刑事責任。在L4、L5級自動駕駛汽車應用中,生産者是安全義務的唯一承擔者,L3級自動駕駛汽車的駕駛位人員有義務避免自動駕駛汽車引發交通事故,但不排除生産者承擔安全管理義務。生産者的安全管理義務不僅存在于汽車交通運輸活動中,也存在于汽車的靜态維護中,它不同于駕駛位人員的安全管理義務或傳統汽車産品瑕疵的召回義務,也不是監督管理義務,其内容至少應包括:(1)對自動駕駛汽車應用安全特别是算法安全保持監控、封閉管理和及時維護。自動駕駛系統中使用了新一代人工智能算法程式,生産者應當對其算法應用進行封閉管理,阻止未經合法程式審查和授權的算法自主變更,防止其自主學習和決策。此外,生産者應分析、優化各種路況的處置流程,編制新的緊急路況處理方法,在充分的實驗和依法進行算法審查的基礎上,遵照相關國家标準或行業标準,及時對自動駕駛系統進行更新維護;(2)監測到自動駕駛汽車運作存在嚴重危險,或者車内人員啟動緊急處置求助按鍵,應當對自動駕駛汽車啟動遠端監控或幹預。大陸《汽車駕駛自動化分級》标準中規定了“排程員”這個角色,其作用是“在車輛無駕駛員操作的條件下,通過激活駕駛自動化系統以實作車輛排程服務但不執行動态駕駛任務”,該角色隻可能由生産者承擔。如果生産企業的排程員發現自動駕駛系統不能正常啟動緊急路況處理程式,應當及時調用遠端安全控制程式,接管或者幹預自動駕駛汽車的控制,使其進入安全或避險狀态。為了促使生産者切實履行前述安全管理義務,刑法有必要規定生産者拒不履行安全管理義務情節嚴重的,應當依法承擔刑事責任,以保護公共交通和公衆生命财産安全。

國家應當設立人工智能算法安全監管機構,對自動駕駛汽車算法安全進行監督管理。在人工智能時代,不安全的算法對國家、社會和公衆安全構成嚴重威脅,要使生産者切實履行自動駕駛汽車算法安全管理義務,僅靠事後的刑罰威懾是不夠的,應當“設定算法安全委員會等專門機構負責對算法進行實質性審查。為強化算法行政監管和保障算法規範運作……對算法進行使用前準許審查和定期審查”,對包括自動駕駛汽車在内的人工智能産品的算法安全進行事前和事中的監督、檢測。

2.駕駛位人員的刑事責任

駕駛位人員的刑事責任與自動駕駛汽車的類型有關。L5級自動駕駛汽車可以不設定駕駛位,不存在駕駛位人員或動态駕駛任務後援使用者這個角色,車上人員不對自動駕駛汽車交通事故承擔刑事責任。L3、L4級自動駕駛汽車設定了駕駛位,其駕駛位人員主動接管後,與駕駛傳統汽車沒有差別,如果發生嚴重的交通事故且負主要或全部責任的,應按交通肇事罪追究刑事責任,但是,其不接管汽車的刑事責任不同。

L4級自動駕駛汽車駕駛位人員不承擔警覺接管義務,其不接管汽車不承擔法律責任。當法律規定L3級自動駕駛汽車的駕駛位人員負有警覺接管汽車的法律義務,其因未履行警覺接管義務而發生嚴重後果的,将依法承擔責任事故犯罪的刑事責任。在大陸交通安全法規未規定駕駛位人員的警覺接管義務時,駕駛位人員的注意義務不同于交通肇事罪的注意義務,其僅是保障自動駕駛汽車運作安全的管理義務,不應按照交通肇事罪追究刑事責任,應當認定為其他過失犯罪如過失緻人重傷、死亡罪等。如果未來大陸交通安全法規設立了駕駛位人員的警覺接管義務,如前文所述,駕駛位人員應承擔交通肇事罪的刑事責任,但責任範圍以其能力為限。

需要指出的是,從自動駕駛汽車發展趨勢和新一代人工智能技術局限性看,前述警覺接管義務立法不是科學、公正的制度安排,理由如下:(1)增大了交通安全風險。随着自動駕駛汽車的應用,人類駕駛員更少親自駕駛汽車處置路況,處置緊急路況的能力降低,大多無力應對自動駕駛汽車引起的緊急狀态,而接管行駛中的汽車發生事故的幾率更高。(2)違背增加人類福利的目的。由于要求駕駛位人員全程保持警覺、随時準備接管汽車,在保障安全的前提下,不是減輕而是增加了駕駛位人員的體力和精神壓力。(3)将生産者的法律責任轉移給駕駛位人員。法律強制駕駛位人員接管,中斷了自動駕駛汽車與事故之間的直接聯系,免除或者大幅度減少了生産者的法律責任,使駕駛位人員背負起原本由生産者承擔的安全責任,導緻其法律責任風險更大。筆者認為,L3級自動駕駛汽車隻适于自動駕駛系統的科學實驗和算法訓練,不應普及社會應用,L4、L5級自動駕駛汽車應用才是智能交通發展的正确方向。

結論

現行刑法難以解決自動駕駛汽車交通事故的刑事責任問題。在自動駕駛汽車自主要制狀态下發生交通事故的,對生産者、使用者和其他人員不能按現有罪名定罪處罰。除非道路交通安全法和刑法有專門的規定,駕駛位人員不接管汽車或接管後無力改變交通事故結果的,不構成交通肇事罪或其他管理過失犯罪。駕駛位人員的注意義務是阻止自主要制狀态的自動駕駛汽車引起交通事故,其注意義務不應設定得過高。允許的風險、緊急避險理論不能為自動駕駛汽車緊急路況處理算法的生産和應用提供合理合法的解決方案,生産者遵守算法安全标準僅可使生産行為合法化。

自動駕駛汽車是人類研發、制造、使用和管理的智能産品,不是犯罪主體或刑事責任主體。應當根據自動駕駛汽車應用的特性,建立以生産者全過程負責為中心的新刑事責任體系,使生産者在自動駕駛汽車生産和應用兩個階段承擔安全管理責任,生産者拒不履行自動駕駛汽車應用安全管理義務且情節嚴重的,應當承擔刑事責任。國家應當制定公共安全優先的算法安全标準,設立人工智能算法安全監管機構,監督自動駕駛汽車的生産和應用。

繼續閱讀