天天看点

工业物联网人工智能框架 - 第三部分(3.4)

作者:Engineer Fu

本文翻译自《Industrial IoT Artificial Intelligence Framework》,原始来源:https://www.iiconsortium.org/pdf/Industrial-AI-Framework-Final-2022-02-21.pdf。本翻译作品仅供参考,遵循 Industry IoT Consortium 使用信息 - 使用条款、条件和通告。作者和贡献者对原文内容享有版权。请阅读原文以了解详细信息和权限限制。

作者 AuthorsWael William Diab, Alex Ferraro, Brad Klenz, Shi-Wan Lin, Edy Liongosari, Wadih Elie Tannous, Bassam Zarkout.

3.4 伦理和社会问题

在工业环境中应用人工智能技术涉及到广泛的伦理、社会关注、偏见、安全、劳动力影响和政策等问题。

3.4.1 伦理

本节旨在强调在工业环境中应用人工智能时的一些关键伦理问题,包括隐私、偏见和意外的算法后果。它并不替代或总结有关该主题的众多研究,例如自动化工业设备优化、能源使用预测和癌症检测等。

为了避免意外后果,必须负责任地使用人工智能。例如,在隐私方面,实施知情同意的AI系统(参见第3.3.2节)可能无法防止未来的AI技术对之前被认为符合隐私控制的数据进行个人信息推断。

越来越多的国家发布了人工智能伦理的指南和原则。下表3-3是澳大利亚工业、创新、科学、能源和资源部门发布的一个人工智能伦理框架的示例。

工业物联网人工智能框架 - 第三部分(3.4)

表3-3. 人工智能伦理框架的核心原则。来源:澳大利亚工业部。第一部分

工业物联网人工智能框架 - 第三部分(3.4)

表3-3. 人工智能伦理框架的核心原则。来源:澳大利亚工业部。第二部分

人工智能伦理原则 描述
1.人类、社会和环境的福祉 在其生命周期内,人工智能系统应造福于个人、社会和环境。
2.以人为本的价值观 在其生命周期内,人工智能系统应尊重人权,多样性和个人的自主权。
3.公正性 在其生命周期内,人工智能系统应具有包容性和可访问性,并且不应涉及或导致对个人、社区或群体的不公平歧视。
4.隐私保护和安全 在其生命周期内,人工智能系统应尊重和维护隐私权和数据保护,并确保数据的安全。
5.可靠性和安全性 在其生命周期内,人工智能系统应可靠地按照其预定目的运行。
6.透明度和可解释性 应确保透明度和负责任的披露,以确保人们知道何时受到人工智能系统的重大影响,并能了解人工智能系统何时与他们互动。
7.争议性 当人工智能系统对个人、社区、群体或环境产生重大影响时,应有及时的过程让人们对人工智能系统的使用或输出提出质疑。
8.责任制 应能够确定并追究人工智能系统生命周期中不同阶段负责任的人,对人工智能系统的结果应进行人类监督并承担责任。

表3-3. 人工智能伦理框架的核心原则。来源:澳大利亚工业部。

3.4.2 偏见

许多人工智能应用旨在提供用于决策的见解。例如,在预测性维护中,人工智能被用于确定某个零部件在一定期限内是否可能损坏。在机器优化中,它可以用于设置特定的机器配置(例如风扇速度、风扇运行时间),以优化特定的参数(例如能源使用)。

人工智能所做出的决策基于经过数据集训练的学习模型。确保在模型训练中使用适当的训练数据对算法的整体质量和所做决策至关重要。如果训练数据集中存在意外的偏见,人工智能模型所做出的决策也将带有偏见。让我们通过一个例子来说明这一点。假设我们要开发一个机器学习应用程序,用于预测室外泵的温度敏感阀门的平均故障时间(MTTF)。机器学习模型是通过从现有泵中捕获的数据进行训练的。然而,为了使模型在预测MTTF方面做出可接受的工作,训练数据必须代表正确的条件。

如果没有精心设计的过程,偏见可能会在整个数据供应链中引入——从数据来源到模型训练再到应用:

训练数据中的偏见:假设训练数据是在天气温暖时捕获的泵操作数据。由此产生的模型可能无法准确预测阀门在寒冷天气中的MTTF。

模型训练过程中的偏见:通常为了加快训练时间,只使用捕获数据的子集。然而,这个子集必须经过精心策划,以公平地代表整体捕获的数据,否则可能引入偏见。例如,如果子集中包含的温暖天气数据比寒冷天气数据更多,这种不平衡可能导致一个不准确的模型。

由于人的本性而引入的偏见:对人类行为或决策的数据必须特别注意。众所周知,人类在决策过程中存在着潜意识偏见。如果我们要创建一个基于人类决策的自动化决策应用程序,需要采取特殊步骤来检查--理想情况下--消除基础数据中的意外偏见。否则,生成的模型和应用程序将包含这些意外偏见。随着越来越多的人使用这个应用程序,这些偏见的影响将被放大。

运行过程中引入的偏见:根据人工智能遇到的操作数据,可能会在正常运行过程中引入意外偏见。在这种情况下,需要对人工智能系统进行重新训练。

3.4.3 安全

安全是一个有着标准和明确定义的最佳实践的成熟领域,涵盖了从设计到实施、部署、运营和最终退役的系统的整个生命周期。IEC 61508和IEC 61511就是这样的安全标准的例子。

AI安全被定义为减少AI带来的风险,特别是当AI的计算结果可以直接应用于物理世界时。必须在整个AI系统和与其集成的工业物联网系统的整个生命周期中考虑和解决AI对安全功能和完整性要求的影响:规划、设计、实施和运营。

考虑到AI的自动化和“无人参与”的特性以及其几乎难以理解的潜力,安全问题可能非常重要。组织应该减轻工业AI风险和偏见,以降低意外伤害或生命损失的可能性。“事故”是由于信息处理和决策中的意外疏忽而导致的,这也是一个真实的可能性——高层领导和业务经理应该意识到此类事故的发生方式。

举例:在AI战略规划、实施和使用的整个生命周期中,必须全面考虑AI安全性,特别是从预防的角度。考虑到“失控AI”可能带来的不可逆转的负面后果,组织需要确保从规划阶段开始,其AI环境拥有强有力的内部控制措施。

随着组织推进其AI计划,重要的是考虑可能存在的“黑盒子”感知,即AI模型的内部运作方式(如所涉及的技术或决策机制)可能难以理解,同时也难以为模型本身建立控制措施。我们可以轻易看到AI模型的输入和输出,但理解模型的工作原理却可能具有挑战性。

最后,在AI计划中,需要建立多个反馈环路和迭代式的开发和持续改进方法,以保持现实的期望、确保透明度,并从中汲取教训。

第一道防线涉及身份验证和授权的安全期望。基于角色的管理和控制可防止未经授权的参与者操纵工业AI数据、设备或流程。

第二道防线由信息模型的数据管理期望提供,它减少了系统组件的临时配置可能带来的意外后果。一个常见的属性表示方式可以简化工业AI应用的设计和实现,使业务所有者能够确认和验证。

第三道防线考虑了可靠的数据同步连接期望。缺失或不完整的数据集可能会导致算法超出预期范围。

第四道防线对后处理AI结果的监督,确认其是否在预期范围内,并引入人工判断来审查和分析异常情况。

在应用工业分析、解释和采取行动时,必须确保有强大的安全要求,以保护工人、用户和环境的福祉。工业AI在其分析结果中必须满足更高水平的准确性。任何解释和采取结果的系统都必须有防止不可取和意外物理后果的保障措施。

此外,工业运营涉及物理世界,工业分析需要通过特定领域的专业知识对数据中复杂和因果关系进行建模验证。在许多工业应用案例中,需要结合第一原理(例如物理建模)以及其他数据科学统计和机器学习能力,以提供准确的分析结果。

Copyright © 2022, Industry IoT Consortium®, a program of Object Management Group, Inc. (“OMG®”). All other trademarks in this document are the properties of their respective owners.

All copying, distribution and use are subject to the limited License, Permission, Disclaimer and other terms stated in the Industry IoT Consortium Use of Information – Terms, Conditions & Notices, as posted at https://www.iiconsortium.org/legal/index.htm - use_info. If you do not accept these Terms, you are not permitted to use the document.

This document is a work product of the Industry IoT Consortium Industrial Artificial Intelligence Task Group, chaired by Wael William Diab.

Editorial Team: Bassam Zarkout (Chief Editor) and Wael William Diab (Editor).

Authors: The following persons contributed substantial written content to this document: Wael William Diab, Alex Ferraro (PwC), Brad Klenz (SAS), Shi-Wan Lin (Thingswise), Edy Liongosari (Accenture), Wadih Elie Tannous (AASA), Bassam Zarkout (IGnPower).

Contributors: The following persons contributed valuable ideas and feedback that significantly improved the content and quality of this document: Eric Harper (ABB), Salim Abi-Azzi (Dell).

Technical Editor: Stephen Mellor (IIC staff) oversaw the process of organizing the contributions of the Authors and Contributors into an integrated document.

继续阅读