天天看点

欧盟人工智能法案草案充分考虑生成人工智能的机遇与危害

作者:邦略智库

【邦略专报】近日,欧洲著名智库发布了欧盟人工智能法案草案充分考虑生成人工智能的机遇和危害的研究报告。报告指出,当欧盟委员会于2021年4月提出一项《人工智能法案》以建立欧盟范围内的人工智能统一规则时,该法律草案似乎适合当前技术水平。但它没有预料到OpenAI发布了ChatGPT聊天机器人,该机器人证明人工智能可以生成与人类相似水平的文本。ChatGPT可能是生成式人工智能最著名的例子,它可用于创建文本、图像、视频和其他内容。

欧盟人工智能法案草案充分考虑生成人工智能的机遇与危害

生成式人工智能可能拥有巨大的前景,但其风险也已被标记。其中包括:

风险1:可能操纵公众舆论的复杂虚假信息,例如深度造假或假新闻。

风险2:故意利用少数群体和弱势群体。

风险3:用于训练复制生成人工智能模型的数据中的历史和其他偏见刻板印象,并可能导致仇恨言论等输出。

风险4:鼓励用户进行有害或自残的活动。

风险5:在人工智能可以取代人类的某些领域失业。

风险6:“幻觉”或错误回复,生成式人工智能可以非常令人信服地阐明。

风险7:巨大的计算需求和高能源消耗。

风险8:有组织犯罪或恐怖组织的滥用。

风险9:使用受版权保护的内容作为训练数据而不支付版税。

  为了解决这些潜在的危害,有必要接受生成人工智能的基础模型。基础模型,或者说机器从数据中学习的模型,通常是在大量未标记的数据上进行训练的,它们可以在没有人类监督的情况下推断出模式。这种无监督学习使基础模型能够展现出超出开发人员最初设想的功能(通常称为“新兴功能”)。

  一、不断发展的人工智能法案

  拟议的《人工智能法案》(欧盟委员会,2021年),截至撰写本文时仍有待欧盟机构最终确定2,不太适合基础模型。它的构建理念是,每个人工智能应用程序都可以根据其预期用途分配到一个风险类别。这种结构在很大程度上反映了传统的欧盟产品责任立法,其中产品具有单一、明确的用途。然而,基础模型可以轻松地针对多种潜在用途进行定制,每种用途都有其自己的风险特征。

在正在进行的文本修改立法工作中,欧洲议会建议基础模型提供商对其产品进行基本的尽职调查。特别是,这应包括:

1.风险识别。尽管不可能提前识别基础模型的所有潜在用例,但提供商通常会意识到某些风险向量。例如,OpenAI知道GPT-4的训练数据集存在一定的语言偏差,因为超过60%的网站都是英语的。欧洲议会将强制要求在独立专家的支持下识别和减轻合理可预见的风险,在这种情况下是不准确和歧视。

2.测试。提供商应努力确保基础模型达到适当水平的性能、可预测性、可解释性、安全性和网络安全性。由于基础模型是许多下游人工智能系统的构建块,因此它应该满足某些最低标准。

3.文档。基础模型的提供者需要提供大量的文档和易于理解的使用说明。这不仅对于帮助下游人工智能系统提供商更好地了解他们正在改进或微调的内容至关重要,而且还使他们能够遵守任何监管要求。

二、人工智能法改进空间

这些新义务如果在最终的《人工智能法案》中得到采纳,将是积极的步骤,但缺乏细节和清晰度,因此将严重依赖欧盟委员会的统一标准、基准测试和指南。他们还面临着负担过重的风险。可以进行一些进一步的修改。

三、基于风险的方法

没有必要将所有义务全面适用于每个基础模型提供商,无论规模大小。它可能会阻碍创新,并会巩固已经在FM领域占据相当大领先地位的公司的市场主导地位,包括OpenAI、Anthropic和GoogleDeepmind3。即使没有额外的监管负担,该群体之外的任何公司也可能很难匹配资源并赶上FM市场领导者。

因此,可以区分具有系统重要性和非系统重要性的FM,后者的负担要低得多。这将符合《欧盟数字服务法》(DSA)采取的方法,该法指出“尽职调查义务必须适应……相关服务的类型、规模和性质,这一点很重要。”DSA对某些服务提供商施加了比其他服务提供商更严格的义务,特别是特别针对超大型在线平台(VLOP)和超大型在线搜索引擎(VLOE)。

区分系统性基础模型和非系统性基础模型并仅对前者施加全部强制性义务有两个原因。首先,开发系统基础模型(SFM)的公司往往规模更大,并且更有能力承担严格监管合规的成本。其次,客户数量较少的小公司的任何偏差所造成的损害往往远小于可持续森林管理可能造成的损害。

文献中提供了关于可用于识别SFM的标准的有用提示,例如所使用的数据源或最初训练模型所需的计算资源。这些以及投资于FM的资金金额都将提前获知。这些上市前参数可能与特定FM的未来系统重要性有一定的相关性,并且也可能与提供商投资监管合规性的能力相关。FM提供商采用促进第三方访问其基础模型从而进行独立验证的技术的程度,例如使用开放API或开源,或(特别是对于不发布源代码的公司)审查由经过独立审查的专家制定的代码,也可能会被考虑在内。其他部署后参数,包括下载数量或下游服务的使用或收入,只能在产品在市场上站稳脚跟后才能确定。

四、人工智能可减轻负担

尽管存在基于风险的方法的争论,但即使是小公司也可能生产出能够反映人工智能高风险使用的应用程序和产品的FM。因此,风险识别、测试和记录的原则应适用于所有FM提供商,包括非系统基础模型,但测试和验证的严格程度应有所不同。

也许来自欧盟委员会的指导可以确定这些减少的测试和验证程序对于开发非系统基础模型的公司来说应该是什么。对于非系统性FM提供商来说,测试、分析、审查和独立验证的义务可能会减轻负担和强度(但不低于合理严格)。

这种差异化将允许对基础模型采取更加渐进和动态的监管方法。SFM名单可能会随着市场的发展而调整。如果模型不再符合SFM资格,委员会还可以将其从列表中删除。

五、人工智能使用受版权保护的数据

尽管2019年欧盟版权指令规定了文本和数据挖掘版权的例外情况,原则上似乎允许使用受版权保护的材料来培训FM,但该规定并没有在实践中似乎还没有解决这个问题。《人工智能法案》应修订《版权指令》,以明确允许使用受版权保护的内容来培训FM,以及必须支付特许权使用费的条件。

六、人工智能受第三方监督

第三方监管问题对于金融机构的监管来说是一个棘手的问题。内部质量管理体系是否足够?或者,日益强大的基础模型是否会带来巨大的系统性风险,以至于有必要由外部专家进行上市前审计和部署后评估(并保护商业秘密)?

鉴于专家稀缺,利用研究人员和民间社会的工作来识别风险并确保合规性非常重要。强制性可持续森林管理事件报告程序可以借鉴经济合作与发展组织4正在开发的人工智能事件报告框架,这可能是一个不错的选择。

七、国际商定的框架

确定可持续森林管理需要国际商定的框架、技术标准和基准。他们还可以帮助记录其环境影响。

到目前为止,大规模FM的开发需要大量的电力,并且有可能产生大量的碳足迹(取决于能源的来源)。通用指标具有可比性,有助于提高SFM整个生命周期的能源效率。

八、安全保障

可持续森林管理的提供者应该有义务在安全和安保方面进行大量投资。对尖端人工智能研究实验室的网络攻击构成重大风险;尽管如此,尽管对SFM的投资迅速增长,但用于人工智能护栏和人工智能对齐研究的资金仍然相当低。SFM的内部安全对于防止有害输出至关重要。外部安全至关重要,但仅靠它还不够——应尽可能减少通过贿赂换取模型访问权的可能性。

九、结论

《人工智能法案》可能具有开创性,但需要更加精确地管理FM的风险,同时不妨碍较小竞争对手(尤其是欧盟竞争对手)的创新。

除非在最终确定《人工智能法案》时考虑到这些问题,否则欧盟自身的人工智能开发商可能会面临严重障碍,同时又无法采取足够的保障措施。

欧盟可能是生成式人工智能的主要部署者。这种市场力量可能有助于确保技术以符合欧盟价值观的方式发展。

编辑 树 义 审核 国 新

继续阅读