天天看点

如何管好AI,人类还没达成一致意见

作者:NewEconomist

来源:知识分子

如何管好AI,人类还没达成一致意见

撰文 | 孔奥 吴唯玥 刘少山

在一个越来越受算法驱动的世界里,人工智能(AI)已超越了科技界的热门话题,成为推动全球经济、社会治理,乃至改变我们日常生活方式的关键力量。面对技术的快速进步,一个重要的全球问题浮现出来:如何监控AI的发展不危害人类,与人类的价值观和全球利益相契合?

本文通过分析在AI领域处于领先地位的三个大区域——美国、欧盟和中国的监管理念和做法,探讨它们如何影响技术的未来发展。

同时,文章也试图解决一个关键问题:我们如何构建一个既能适应AI不断变化的特性,又能满足全球治理需求的监管机制?

美国:自我监管容易导致垄断

美国在隐私、网络安全和消费者保护这三个领域均采用了特定行业的监管原则。美国的监管法律是自下而上形成的,各行业团体首先提出法律草案,随后通过立法机构进行反复修订和完善。美国的立法体系赋予每个行业自主制定与其行业相关的监管法律的权限。

美国政府要求AI领军公司自愿承诺管理AI风险,这反映了其对特定行业方法的支持。例如,Meta公司(原Facebook)就成立了AI责任团队,并启动了”生成式AI社区论坛",以透明方式征求公众对AI产品的反馈。

这种依赖于行业自我监管的方法得到了一些专家的支持,他们认为由行业从业者组成的专家小组对特定领域有深刻理解。通过将AI专家纳入这些小组,可以为各行业的AI应用构建出复杂而详尽的监管框架。

然而,这种方法也存在自我监管的任意性和由几家主导企业控制规则的风险。鉴于AI的变革性影响和迅速普及,需要警惕过分依赖“善意”的做法,以及少数行业和企业在规则制定上可能占据的主导甚至垄断的地位。

在监管执行方面,美国同样采用了针对特定行业的方法。例如,随着企业越来越多地转向数字化运营,网络安全成为各行业的关键关注点。网络安全主要由国土安全部的网络安全和基础设施安全局负责,而联邦贸易委员会和证券交易委员会等其他机构则分别在特定行业中承担特定职责。消费者保护方面也是如此,多个机构跨行业工作,其中联邦贸易委员会是主要负责机构,而消费者金融保护局和食品药品管理局等在特定行业内扮演重要角色。

欧盟:监管过严可能抑制创新

欧盟的《人工智能法》继承并发展了《通用数据保护条例》(GDPR)的立法框架,提出了一个全面的AI监管体系。这一体系涵盖了从定义高风险AI系统的要求到成立欧洲人工智能委员会的各个方面。该法案特别强调了用户安全和基本权利的重要性,并规定了AI系统的透明度标准以及对AI供应商的严格市场后监测规则。此举显著体现了欧盟在人工智能领域中培养以人为本、道德导向的生态系统,以及保护公众利益的坚定决心。

《人工智能法》基于风险的核心理念,将AI产品分类并对每个类别施加不同程度的监管。这种分类考量了AI产品可能带来的潜在风险,并相应地提出了必要的保障措施。例如,低风险AI系统(如垃圾邮件过滤器或视频游戏算法)可能只受到最低限度的监管,以保持其创新性和可用性。而对于高风险应用(例如生物识别和关键基础设施的应用),则施加了更为严格的要求,包括严密的风险管理和增强用户透明度。

为了执行该法案,欧盟采取了建立中央监管机构的做法,即成立了人工智能委员会,负责详细制定AI的法律框架,解释和执行《人工智能法》的规定,并确保整个欧盟范围内的高风险AI系统受到统一监管。然而,《人工智能法》在实施过程中可能面临类似于GDPR的挑战,如意外后果和复杂规则给企业带来负担,未能显著提高用户信任或体验。

基于风险的监管方法可能过于简化了AI产品的复杂现实,忽视了AI系统固有的不确定性和多样化风险场景。最近的研究表明,大量AI系统可能被归类为高风险,暗示这种方法可能导致过重的监管负担,从而阻碍有益技术的发展。

考虑到AI的快速发展和全球部署,单一的集中监管实体,尽管采用了全面的方法,但在应对AI问题的多样性和快速变化方面可能面临挑战。决策瓶颈和官僚程序的延迟可能会妨碍对动态AI环境中至关重要的及时响应,影响监管的效率和适应性。虽然成立人工智能委员会的目的值得肯定,但其在应对现实世界的复杂性方面的有效性仍有待验证。

中国:寻找强力监管和行业创新的平衡点

中国在人工智能领域的监管策略和方法体现了国家的引导和控制。中国不仅将人工智能视为技术发展的一个方面,更是国家经济和社会基础设施的重要组成部分。这与中国对能源、电力等传统公共资源的管理方式相一致。中国的主要目标是在确保安全和有序的前提下,促进人工智能及其应用的发展,同时避免私营部门可能产生的过度影响或垄断现象。

近期出台的人工智能相关法规反映了中国在这方面的决心。这些法规与《网络安全法》的原则相契合,将原本针对互联网服务提供商和社交媒体平台的监管责任扩展到了涉及人工智能的服务提供商。这意味着人工智能服务提供商需要在监管机构的指导下运营,并向相关机构报告其操作和维护的详细记录。这些法规在ChatGPT推出后不久迅速制定并实施,显示了中国监管机构与人工智能快速发展步伐保持一致的决心。

这种国家主导的人工智能监管模式不仅有利于确保人工智能的发展符合国家的整体发展战略和规划,而且对于那些需要谨慎对待人工智能技术快速普及及其潜在影响的发展中国家来说尤其重要。

与此同时,相较于中国传统上所监管的诸如土地、矿产和电力等公共资源,人工智能的动态和快速发展性质要求监管框架必须灵活、知识更新频繁,并且需要大量的计算资源支持。面对这一挑战,中国正在努力寻求一个平衡点:一方面要通过强有力的监管机制保障公共利益,另一方面也要保持足够的灵活性,以激发创新并允许行业进行必要的实验和探索。

有必要建立一个全球AI治理机构吗?

鉴于人工智能(AI)技术及其影响不受国界限制,联合国面临着建立一个统一全球AI监管机制的重要任务,旨在跨越文化和政策的分歧。

构建一个真正“目标适应”的全球AI监管体系是一项巨大的挑战。正如美国、欧盟和中国的不同监管策略所示,关键在于如何处理复杂的社会经济和政治差异,以及各国在法律和行政体系中根深蒂固的监管传统。

各国在评估AI监管的时候,需考虑技术在不同国家背景下的应用和相应的利弊。发达国家可能更注重风险控制和隐私保护,而发展中国家或许更倾向于利用AI促进经济增长和解决迫切的社会问题。为平衡这些不同目标,联合国需要利用其独特地位来推动跨文化对话,协调不同的观点。

AI的开放源代码和自我生成特性要求一种灵活、迅速反应的治理机制,超越传统的、如核能这样高风险技术的治理体系。有提议建立一个国际AI机构,类似于国际原子能机构(IAEA)在核治理中的角色,以指导各国的AI策略,并随着AI技术的发展填补政策空白。

然而,我们认为,国际原子能机构之所以高效,是因为其监管的核实体数量较少,且核军备限制在少数国家。与核风险不同,AI的开源性和非国家行为者的重要影响可能需要一个更加开放和动态的监管平台,类似于GitHub这样的云服务平台,而不是传统的、定期召开协商会议的集中治理模式。

鉴于AI技术在不同领域的广泛应用和其带来的多样化风险,如大规模失业、深度伪造和武器自动化,必须确保来自不同社会经济部门、地理环境和种族群体的广泛参与,以实现包容性决策。

人工智能的发展尚处于初级阶段,但如果不采取紧急且适当的干预措施,其无管理的快速增长将可能导致类似大流行的情况。基于这些分析,我们建议建立一个全球开源公共产品治理机制,该机制将坚守安全、人类尊严和公平的标准,确保地缘政治、技术和社会经济方面的多元代表性,尊重国家优先事项和文化背景,并适应人工智能的自我生成和开源特性,为全球AI监管奠定坚实基础。

总结之,全球AI治理不仅是一个技术上的挑战,更是一个政策和伦理的议题。随着AI技术在全球范围内迅速发展和渗透,需要一个综合性、多元化且适应性强的治理框架来确保其发展与全球利益及人类价值观保持一致。美国、欧盟和中国的案例展示了不同的治理策略和方法,各有其优势和局限。这些不同的方法揭示了AI治理的复杂性,同时也为全球治理框架的构建提供了宝贵的参考。

最终,我们提出的基于开放源代码、面向公共利益的全球AI治理框架,旨在结合这些不同的方法和见解,构建一个能够适应快速变化的技术环境,同时满足全球治理需求的系统。联合国在这一进程中将扮演至关重要的角色,不仅是框架的塑造者,也是其推动可持续发展目标实现的关键力量。

作者简介:

孔奥,联合国(United Nations)对外合作关系主管,联合国科技银行高级项目专家。

吴唯玥 牛津大学(Oxford)工商管理硕士,宾州大学(UPenn)法律硕士。

刘少山,深圳人工智能与机器人研究院(AIRS)具身智能中心主任,国际计算机学会(ACM)技术政策委员会成员。

参考文献略。

继续阅读