天天看点

算法透明度对街头决策的影响 | Public Administration Review

作者:Political理论志

因公众号推送规则变更

不错过社会科学前沿精彩信息哦

具体操作如右 →

算法透明度对街头决策的影响 | Public Administration Review

解释计算机为什么说不:算法透明度影响公民对街头决策的信任程度

摘要:

基于人工智能技术的算法正在慢慢改变街头官僚机构,但缺乏算法透明度可能会危及公民信任。基于程序公平理论,本文假设算法透明度的两个核心要素(可访问性和可解释性)对于加强街头决策的感知可信度至关重要。本文分别在低自由裁量权(拒绝签证申请)和高自由裁量权(怀疑福利欺诈)的实验场景中对此假设进行了测试。结果表明:(1)可解释性对信任的影响比算法的可访问性更显著;(2)算法透明度的影响不仅与对算法本身的信任有关,而且在一定程度上与对决策者的信任有关;(3)算法透明度的影响在整个决策环境中并不稳健。这些发现表明,可访问的透明度并不足以促进公民的信任。必须解决算法的可解释性问题,以保持和促进算法决策的可信任度。

作者简介:

Stephan Grimmelikhuijsen 乌得勒支大学治理学院

文献来源:

Grimmelikhuijsen, S. (2023). Explaining why the computer says no: algorithmic transparency affects the perceived trustworthiness of automated decision‐making. Public Administration Review, 83(2), 241-262.

算法透明度对街头决策的影响 | Public Administration Review

本文作者 Stephan Grimmelikhuijsen

一、引言

自动化决策和决策辅助的使用对街头官僚制度有深远的影响。过去的自动化技术取代了相对简单、几乎没有自由裁量权的决策,而人工智能(AI)下的新一代算法应用程序旨在进一步实现高自动化的自由裁量决策,这些决定将影响政府资源的获取和分配。对于官僚个人而言,这意味着他们的决策越来越多地受到精密计算机系统的指导和约束,这最终将影响官僚与公民个人的互动方式。已有研究强调,在公共组织中引入算法正在改变组织的结构、惯例和文化,并且需要组织领导者具备不同的能力。

尽管有部分学者强调这种变化有可能使政府服务更加公平和高效,更多研究认为,人类的偏见通常有意无意地被自动化并整合到自动化决策中,严厉批评这种做法会因使用了有偏见的模型参数或有偏见的数据,而产生有偏见甚至歧视性的预测。

这些对潜在偏见背后的批评是缺乏算法透明度和最终的问责制。首先,新一代算法仅使用输入(例如,人类提供的训练数据集)来检测数据中的模式。如何生成基于这些输入数据的特定模式和输出被称为算法“黑箱”。此类算法不易为人类所理解,因此公民无法解释它们。其次,算法有时会被故意设置为不可访问,因为它们通常由商业团体开发,受知识产权保护。也有部分算法因政府担心受制于这些算法的公民一旦弄清楚了系统的工作原理就会玩弄该系统而被设置为无法访问。

街头官僚制度缺乏算法透明度引起了人们对于使用了算法的官僚决策的可信度的担忧。大量关于程序公平的文献表明,没有得到很好解释或不公开评论的决定不太容易被接受,并且会降低对决策者的信任。因此,无法访问和无法解释的算法可能会削弱信任,这使得计算机科学家将算法透明度作为实现可信赖算法的一种手段。公民越来越依赖算法提供关键服务,例如福利、举报犯罪或申请签证等,因此值得信赖的算法对公民来说尤其重要。但与私营部门的大多数算法不同,公民通常别无选择,只能相信政府算法会公平对待他们。

算法透明度对街头决策的影响 | Public Administration Review

本文以之前的工作为基础,测试人机交互中算法透明度的各种元素,而不是探索算法与人类决策的影响。算法透明度的重要性经常被强调为确保算法可信的一种机制,但这种假设的效果存在争议,并且在公共行政背景下几乎没有经过实证检验。此外,这项研究将提供更精细的测试,因为它将在概念上区分并通过实证测试可访问性和可解释性对自动决策的感知可信度的影响。本文的核心问题是:算法透明度对自动决策的感知可信度有何影响?

二、研究假设

算法透明度被引用为增加信任的关键机制,但迄今为止的证据是混合的,并且将算法透明度对可信度的影响应用于街头官僚制度的研究有限。基于关于一般算法的感知可信度的现有证据,特别是在公共管理之外的环境中测试算法透明度影响的具体研究,本文提出关于可解释性和可访问性影响的假设:

H1:与不可访问的算法相比,可访问的算法将被认为更值得信赖。

H2:与未解释的算法相比,可解释的算法将被认为更值得信赖。

H3:与根据不可访问算法做出决定的街头官僚相比,基于可访问算法做出决定的街头官僚将被认为更值得信赖。

H4:与根据无法解释的算法做出决定的街头官僚相比,基于可解释算法做出决定的街头官僚将被认为更值得信赖。

H5:算法透明度(可访问性和可解释性)对街头官僚感知可信度的影响在高度自由裁量权决策中会更加明显。

三、研究设计

为了检验上述假设,本文设计了两个调查实验,两个实验均采用2×2的被试间设计。每个因素独立地改变算法透明度的一个特定维度:可解释性和可访问性。第一个场景描述了签证申请的自动决定。这种自动化决策可以被认为是一种“经典”的自动化形式,其中自由裁量权相对较低。相比之下,第二种情况需要一名街头官僚使用一种算法来预测福利欺诈,这反映了一种预测算法,这种算法是政府中更具争议的AI应用程序的典型代表。这也反映出AI算法改变街头官僚机构的相对较新的方式:不仅低自由裁量权决策是自动化的,而且中高自由裁量权决策也受到自动化的影响。

每个参与者都参加了两个实验,实验的顺序是随机的,两个实验中间插入一个短暂的分心任务,以减少前一个实验的溢出效应。每个实验都包含一个简短的材料,其中包含一个描述自动决策的现实情况。为确保材料的真实性,有三位专家参与了设计:一位街道决策专家、一位人工智能专家和一位电子政务专家。

材料的第一部分是通用的,对所有参与者都是一样的,包括对决定的简短解释。参与者被要求想象自己生活中的这种情况。参与者能够知道材料是假设的,但被明确要求沉浸在想象的情况中。本文特意选择了两个已经在(荷兰)官僚机构中使用的现实情况,使它们更容易想象。实验程序如图1所示。实验顺序和处理条件的分配都是随机的。

算法透明度对街头决策的影响 | Public Administration Review

四、研究结果

每个实验的均值和标准差如表 2 所示。

算法透明度对街头决策的影响 | Public Administration Review

表 2 提供了一些有趣的见解。首先,一般来说,决策者(官僚)往往比算法更受信任。尽管算法最初被誉为能够提高政府决策的效率和公平性,但最近的辩论却出现了更为关键的转变。这反映在人们对算法系统的较低的信任级别,尤其是当它们涉及重要和复杂的决策时。其次,研究 1(签证申请)中算法的整体感知可信度低于研究 2(福利欺诈),但每项研究中官僚的可信度差异不大。这可能表明,与福利相比,人们已经更加习惯于签证申请等政府服务中的算法决策。第三,在包含一维或二维算法透明度的处理组中,可信度往往更高。

(一)实验一:签证申请实验(低自由裁量)

第一个实验,即签证申请实验,涉及低自由裁量权的决策,本研究在其中评估了算法透明度对决策者和做出决策的算法的信任的影响。

总体而言,算法透明度对决策者的感知可信度没有显著影响。可解释性对算法本身的可信度有显著影响(B = 0.16, p < .001);可访问性的影响则不显著(B = 0.08, p = .09)。这表明签证申请案例中的算法透明度几乎不会影响对使用算法系统的决策者的信任,并且从透明度的两个组成部分来看,只有可解释性对算法本身的信任有明显的积极影响。

算法透明度对街头决策的影响 | Public Administration Review

(二)实验二:福利诈骗实验(高自由裁量)

第二个实验涉及福利领域的街头官僚决策。在该场景中,街头官僚通过搜查房屋来追查一起福利欺诈案件。搜索是由算法驱动的推荐提示的。这是荷兰的一个现实案例,在实验结束后,因其不透明和假设的偏见,法官决定不再允许使用提供此类建议的福利欺诈检测系统。表4显示了透明度如何影响这种情况下的信任。

与第一个实验相比,我们发现算法透明度的影响更为显著:决策者的可信度也受到算法透明度的影响。这可能是因为在此场景下决策者拥有更多的自由裁量权,因而被认为有更多的责任跟进系统的建议。数据显示,可解释性的强烈显著影响 (B = .15, p = .002) 和可访问性的临界显著影响 (B = 0.09, p = .051)。在次场景中,透明度的两个要素都会影响对算法本身的信任,除可解释性 (B = 0.19,p < .001) 之外,可访问性也会增加信任度 (B = 0.14,p = .003)。

算法透明度对街头决策的影响 | Public Administration Review

总体来说,两个实验的结果都支持了假设2:两个实验都为影响算法信任的算法决策提供了解释。此外,混合证据表明,算法可访问性会影响对官僚的信任(假设3)。对于H1和H4,证据也是混合的,影响似乎取决于决策的背景。

最后,算法的可解释性对人类、官僚、决策者的可信度的影响仅在高自由裁量权福利欺诈实验中被发现(p = .002)。这表明决策场景会影响可解释性带来的影响强弱,这与假设5一致(算法透明度在高度自由裁量权的情况下具有更强的影响)。为了进一步评估假设5,我们进行了额外的三阶交互分析,其中“研究”作为附加变量输入,仅次于可访问性和可解释性。如果支持 1,我们预计自变量会与新的变量相互作用。然而,我们发现该研究与处理变量对算法信任和官僚信任没有显著的交互作用。

算法透明度对街头决策的影响 | Public Administration Review

五、结论

最近的学术和政策辩论强调算法透明度是确保官僚决策可信度的一种手段,但缺乏实证检验。作为回应,本文测试了算法透明度的两个核心要素(可访问性和可解释性)是否会影响公民对决策者的信任和对算法的信任。本文中的两个实验得出了三个主要结论。第一,可解释性比算法的可访问性对公民信任更重要;第二,算法透明度的影响不仅与对算法的信任有关,而且部分地与对决策者的信任有关;第三,算法透明度的影响在整个研究环境中并不稳健:在高度自由裁量权的情况下 可访问性和可解释性都会影响算法决策的可信度。

本文认为,未来研究的两个有前途的方向可以更系统地探索这些决策环境。首先,研究人员可以进一步考虑决策结果的个人相关性。在检测福利欺诈的案例中,决定的后果比在签证申请案例中更为普遍。这与程序正义文献中的发现一致,学者们发现当决策结果对接受者更重要时,感知公平与对权威的信任特别相关。如果出现这种消极的决策结果,人们会希望寻找有助于他们解释情况的信息。其次,为了厘清不同场景下算法透明度的影响,未来的研究可以系统地测试具有不同程度的自由裁量权和复杂性的决策。

本研究有一些局限性。首先,本文介绍了两个假设场景的调查实验。调查实验因缺乏外部有效性而受到批评。目前的操纵(算法透明度)很难以合乎道德的方式在现实世界中进行测试。因此,重要的是首先确定实验的高内部有效性的潜在影响。未来的研究可以采用不同的(实验)方法来进一步探讨我们研究结果的外部有效性。为了测试算法透明度的现实效果,公共行政学者应该与计算机科学家密切合作,开展实地实验测试,对真实或模拟算法进行测试、更改和重新测试。

第二个局限是实验中包含的解释类型。人工智能学者仍在讨论算法可以或应该产生什么样的解释,这取决于用户的技能和能力。从公共行政的角度来看,质疑应该向哪些公众提出什么样的解释也很有趣。其他类型的论点和解释需要系统地开发和测试,未来的研究也可以研究街头官僚所需要的能够信任和理解算法的解释类型。

第三个局限是,在两个实验中透明度的操作化较为粗糙。可以有多种方法使数据和代码可访问,也可以有多种方法来证明决策的合理性以及决策中不同程度的透明度。更重要的是,可以有不同的方式来呈现(复杂的)政府信息。随后的研究可能会测试更微妙和渐进的透明度处理。

最后一个局限是,在这个实验中,透明度没有揭示任何算法偏见。相反,本文选择测试算法透明度的“积极”场景,其中透明度揭示了对消极决策结果的清晰且明显无偏见的解释。与此同时,些学者批评性地报道了算法偏见和歧视。未来的研究可以比较有偏见和无偏见的解释,以试图更好地捕捉当前对政府算法决策的批评。

编译 | Rylee

审核 | 查 皓终审 | Mono

©Political理论志

算法透明度对街头决策的影响 | Public Administration Review

前沿追踪/理论方法/专家评论ID: ThePoliticalReview

“在看”给我一朵小黄花

算法透明度对街头决策的影响 | Public Administration Review