天天看点

人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规

作者:随意自由的向某人

人工智能责任的法律和经济学

引言:

人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规则以应对。

本文讨论了当人工智能系统不可预测或(半)自主行动时出现的责任差距。它考虑了当人工智能系统中的错误。

以为生产者和用户预见并且难以定义的监控职责时证明故障和因果关系的问题。从经济角度来看,本文考虑了哪些责任规则可以最大限度地减少与人工智能相关的损害成本。

基于对风险和最佳责任规则的分析,本文评估了最近发布的欧盟关于产品责任指令和人工智能责任指令的提案。

一:安全规定

在欧盟内部,产品安全规则主要是事前的,分为两个级别的立法。一方面,如下所述,一些具体法律规范某些部门或产品。

另一方面,在没有此类具体要求的情况下,一般产品安全指令(以下简称“GPSD”)中规定的一般规则3应用。该指令旨在确保制造商只将安全的消费品投放市场。

特别是,GPSD要求生产商和分销商向消费者提供安全的产品,采取一切可能的步骤来识别其产品的任何危害,并告知消费者存在此类危险,并在必要时从市场上移除危险产品。

在对GPSD进行审查后,委员会建议将GPSD转换为法规,并发布通用产品安全法规(以下简称“GPSR”)的提案。

拟议的GPSR旨在规范新技术带来的安全风险。除了GPSD或即将成为GPSR之外,《市场监督条例》还规定了认证和市场监督的要求。

二:责任规则

在大多数会员国,基于过失的赔偿责任是一般标准。在根据过失责任制度要求损害赔偿时,索赔人需要证明侵权人有过错。

他们遭受了伤害,并且有害活动与损害之间存在因果关系。然而,证明这些条件对受害方来说可能具有挑战性。

这就是为什么针对立法者旨在允许更容易获得损害赔偿的特定情况引入了其他对索赔人更友好的责任制度。

促进提出损害索赔的一种方法是坚持基于过失的责任制度,同时颠倒举证责任。可反驳的过错或因果关系推定可以帮助索赔人获得赔偿。

并减少受害方与侵权人之间的信息不对称。推定制度可能与产生不同类型风险和损害的各种事实情况有关。

例如父母对子女造成的损害的责任、雇主对代表他们行事的雇员的责任、建筑物的所有者或从事危险活动的人。

三:产品责任指令及其拟议修订

在过去几年中,欧盟委员会发现了在数字、互联和自主系统背景下应用PLD条款的几个问题。一个挑战是复杂的产品或服务价值链,供应商、制造商和第三方之间相互依存。

另一个问题围绕着数字商品法律性质的不确定性,即它们是产品或服务。具有自主能力的技术为产品责任带来了具体问题。专家组报告和人工智能白皮书都得出结论。

PLD中的一些关键概念需要澄清,以应对新兴的数字技术。欧洲议会还呼吁欧盟委员会“审查该指令,并考虑调整'产品''损坏'和'缺陷'等概念,以及调整管理举证责任的规则”。

四:与人工智能相关的风险

由于多个利益相关者的参与和人工智能组件的相互依赖性,人工智能可能很复杂。数字商品的各个部分,如硬件和数字内容,可以单独销售并由多方生产。

这可能使得难以追踪故障来源或将故障责任归咎于单个制造商。受害方可能面对硬件制造商、软件设计师、软件开发商、设施所有者或其他人。

消费者可能很难证明为什么他们的产品不起作用。具有自主性、不可预测性、复杂性或不透明性特征的人工智能。

也为责任归属带来了新的风险和挑战。根据这些挑战,可以查明现有赔偿责任制度中的三个可能的差距。

结论:

随着人工智能技术进入日常产品和服务,它们也必将在责任诉讼中发挥作用。这就提出了责任规则是否适合处理人工智能的问题。

本文确定了责任规则中可能存在的几个差距,分析了人工智能的有效责任制度,并评估了欧盟最近关于生产者和运营商责任的提案。

欧盟非合同责任规则不应孤立地考虑,而应将其视为更广泛的规则的一部分,因为它们共同塑造了各方的激励措施。

特别是,责任规则需要与欧盟一般条例和部门特定安全条例、强制性或自我监管的认证计划以及国家非合同和合同责任规则和保险规则保持一致。

参考文献:

1.委员会,“建设欧洲数据经济”(通信)COM (2017) 09.

2.COM (2020) 65 决赛;委员会,“关于人工智能、物联网和机器人技术的安全和责任影3.响的报告”COM (2020) 64 final;责任和新技术专家组新技术形成,人工智能和其他新兴数字技术的责任(2019)(以下简称“专家组报告”),27-28。

4.欧洲议会,关于自动化决策过程的决议:确保消费者保护和商品和服务的自由流动(2019/2915(RSP))(EP决议)

5.委员会,“关于人工智能——A. 欧洲的卓越和信任方法”(白皮书)COM (2020) 65 final, 17.这也被称为AI的“黑匣子效应”(见COM (2020) 65 final1)

人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规
人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规
人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规
人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规
人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规
人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规
人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规
人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规
人工智能责任的法律和经济学引言:人工智能系统的使用给责任规则带来了挑战。本文确定了这些挑战,并评估了应如何调整赔偿责任规

继续阅读