天天看點

人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規

作者:随意自由的向某人

人工智能責任的法律和經濟學

引言:

人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規則以應對。

本文讨論了當人工智能系統不可預測或(半)自主行動時出現的責任差距。它考慮了當人工智能系統中的錯誤。

以為生産者和使用者預見并且難以定義的監控職責時證明故障和因果關系的問題。從經濟角度來看,本文考慮了哪些責任規則可以最大限度地減少與人工智能相關的損害成本。

基于對風險和最佳責任規則的分析,本文評估了最近釋出的歐盟關于産品責任指令和人工智能責任指令的提案。

一:安全規定

在歐盟内部,産品安全規則主要是事前的,分為兩個級别的立法。一方面,如下所述,一些具體法律規範某些部門或産品。

另一方面,在沒有此類具體要求的情況下,一般産品安全指令(以下簡稱“GPSD”)中規定的一般規則3應用。該指令旨在確定制造商隻将安全的消費品投放市場。

特别是,GPSD要求生産商和分銷商向消費者提供安全的産品,采取一切可能的步驟來識别其産品的任何危害,并告知消費者存在此類危險,并在必要時從市場上移除危險産品。

在對GPSD進行審查後,委員會建議将GPSD轉換為法規,并釋出通用産品安全法規(以下簡稱“GPSR”)的提案。

拟議的GPSR旨在規範新技術帶來的安全風險。除了GPSD或即将成為GPSR之外,《市場監督條例》還規定了認證和市場監督的要求。

二:責任規則

在大多數會員國,基于過失的賠償責任是一般标準。在根據過失責任制度要求損害賠償時,索賠人需要證明侵權人有過錯。

他們遭受了傷害,并且有害活動與損害之間存在因果關系。然而,證明這些條件對受害方來說可能具有挑戰性。

這就是為什麼針對立法者旨在允許更容易獲得損害賠償的特定情況引入了其他對索賠人更友好的責任制度。

促進提出損害索賠的一種方法是堅持基于過失的責任制度,同時颠倒舉證責任。可反駁的過錯或因果關系推定可以幫助索賠人獲得賠償。

并減少受害方與侵權人之間的資訊不對稱。推定制度可能與産生不同類型風險和損害的各種事實情況有關。

例如父母對子女造成的損害的責任、雇主對代表他們行事的雇員的責任、建築物的所有者或從事危險活動的人。

三:産品責任指令及其拟議修訂

在過去幾年中,歐盟委員會發現了在數字、互聯和自主系統背景下應用PLD條款的幾個問題。一個挑戰是複雜的産品或服務價值鍊,供應商、制造商和第三方之間互相依存。

另一個問題圍繞着數字商品法律性質的不确定性,即它們是産品或服務。具有自主能力的技術為産品責任帶來了具體問題。專家組報告和人工智能白皮書都得出結論。

PLD中的一些關鍵概念需要澄清,以應對新興的數字技術。歐洲議會還呼籲歐盟委員會“審查該指令,并考慮調整'産品''損壞'和'缺陷'等概念,以及調整管理舉證責任的規則”。

四:與人工智能相關的風險

由于多個利益相關者的參與和人工智能元件的互相依賴性,人工智能可能很複雜。數字商品的各個部分,如硬體和數字内容,可以單獨銷售并由多方生産。

這可能使得難以追蹤故障來源或将故障責任歸咎于單個制造商。受害方可能面對硬體制造商、軟體設計師、軟體開發商、設施所有者或其他人。

消費者可能很難證明為什麼他們的産品不起作用。具有自主性、不可預測性、複雜性或不透明性特征的人工智能。

也為責任歸屬帶來了新的風險和挑戰。根據這些挑戰,可以查明現有賠償責任制度中的三個可能的差距。

結論:

随着人工智能技術進入日常産品和服務,它們也必将在責任訴訟中發揮作用。這就提出了責任規則是否适合處理人工智能的問題。

本文确定了責任規則中可能存在的幾個差距,分析了人工智能的有效責任制度,并評估了歐盟最近關于生産者和營運商責任的提案。

歐盟非合同責任規則不應孤立地考慮,而應将其視為更廣泛的規則的一部分,因為它們共同塑造了各方的激勵措施。

特别是,責任規則需要與歐盟一般條例和部門特定安全條例、強制性或自我監管的認證計劃以及國家非合同和合同責任規則和保險規則保持一緻。

參考文獻:

1.委員會,“建設歐洲資料經濟”(通信)COM (2017) 09.

2.COM (2020) 65 決賽;委員會,“關于人工智能、物聯網和機器人技術的安全和責任影3.響的報告”COM (2020) 64 final;責任和新技術專家組新技術形成,人工智能和其他新興數字技術的責任(2019)(以下簡稱“專家組報告”),27-28。

4.歐洲議會,關于自動化決策過程的決議:確定消費者保護和商品和服務的自由流動(2019/2915(RSP))(EP決議)

5.委員會,“關于人工智能——A. 歐洲的卓越和信任方法”(白皮書)COM (2020) 65 final, 17.這也被稱為AI的“黑匣子效應”(見COM (2020) 65 final1)

人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規
人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規
人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規
人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規
人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規
人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規
人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規
人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規
人工智能責任的法律和經濟學引言:人工智能系統的使用給責任規則帶來了挑戰。本文确定了這些挑戰,并評估了應如何調整賠償責任規

繼續閱讀