天天看点

新美国安全中心:平衡人工智能系统的开放性和封闭性

作者:AI自智体

2023年5月30日,新美国安全中心(Center for a New American Security)发布其技术政策专家Pablo Chavez撰写的评论文章《人工智能的挑战:平衡开放和封闭系统(An AI Challenge: Balancing Open and Closed Systems)》。文章指出,在开放和封闭系统之间进行探索将对人工智能政策的发展非常重要,找到正确的平衡将有助于促进创新和竞争,同时管理该技术带来的非常严重的长、短期风险。欧洲议会的方法和OpenAI的阈值模型试图在开放和封闭之间找到一个适当的平衡,但都不完美,这将有助于开展一场亟需的辩论,以利用开放和封闭系统的优点,确保人工智能的发展能够造福于人类。

文章首先指出,技术辩论往往是一场开放系统和封闭系统之间的拉锯战。一方面,封闭系统的捍卫者认为这种系统更稳定、更安全,更能保护其所有者的财产利益;另一方面开放系统允许互操作性、定制化以及与第三方软件或硬件的整合,其拥护者强调开放性如何促进透明度、问责制、竞争和重大创新,并且人工智能的大部分创造和演变都是由于开源的开发和传播而发生的。

众多被广泛采用的人工智能开源项目提供了开发框架和库,如PyTorch、TensorFlow和MXNet。包括Hugging Face、Stability AI、Nomic AI和Meta在内的许多公司都发布了开源的人工智能模型或实现开源开发。谷歌和OpenAI传统上一直站在开放的一边,两者都发布了人工智能研究和开源工具。例如,谷歌最初在内部开发了TensorFlow,后来将其作为构建人工智能的开源软件库发布。但是,两者都正在变得更加封闭,并开始对其模型进行保护:OpenAI的首席科学家和联合创始人Ilya Sutskever表示,如果你和我们一样相信人工智能(Artificial Intelligence,AI)或通用人工智能(Artificial General Intelligence, AGI, 即基本可以执行人类所能完成的任何智力任务的人工智能)将变得极其强大,那么开源是没有意义的。

新美国安全中心:平衡人工智能系统的开放性和封闭性

谷歌的Zoubin Ghahramani也赞同这种观点, 并表示想更仔细地考虑泄露细节或开放代码的问题。

因此,文章认为,正如这些从开放到封闭的举措所暗示的那样,人工智能政策的答案不会总是完全开放或完全封闭,相反,政策制定者往往会适当地在“开放-封闭”光谱的两个边界之间划出一条人工智能监管线。而关于寻找这种平衡的辩论在欧洲最为深入,那里的政策制定者正在推进《人工智能法案(EU AI Act)》的制定。

最近,欧洲议会提出了对该法案的修正案,建议混合采取开放与封闭的方法。出于对ChatGPT等工具不断增长的能力的关注,议会决定“基础模型”可以开放源代码,但只能以有规则的方式。基础模型是指为“在广泛的数据上进行规模化训练,为输出的通用性而设计(即能够执行许多不同的功能),并可适应广泛的独特任务”的人工智能模型,如大型语言模型(Large Language Model,LLM)。

该法案将对这种“基础模型”的开源开发者提出重要的合规要求,包括在“其整个生命周期内实现性能、可预测性、可解释性、可更正性、安全性和网络安全”的义务等,在理论上开源项目仍然可以建立基础模型,但现实中,只有有组织的、资金充足的(也许得是欧洲的)开源项目才能履行这些义务。这项拟议的限制试图平衡欧盟支持开源人工智能的利益和实现战略自主的努力,以及通过立法护栏确保值得信赖的人工智能发展,无论这种中间道路的做法是否代表正确的政策答案,它都是一种利用开放与封闭框架来打破二元对立的方法。

这种做法还引发了关于深层政策问题的重要讨论:半封闭的开源生态系统能起作用吗?欧洲议会提出的开源基础模型开发的护栏是否会损害欧盟的竞争力?允许基础模型的开源开发是否会使强大的人工智能落入危险之手,并对欧盟及其他国家造成威胁?而关于开放和封闭之间的界限,OpenAI的首席执行官山姆·阿尔特曼(Sam Altman)在美国参议院表示,人工智能监管应该在能力阈值以上生效,并建议在该阈值以上不应允许开放源代码。正如阿尔特曼后来在Twitter上所表示的,我们不应该掺和低于阈值的模型,开源模式和小型创业公司显然很重要。

据报道,OpenAI在可能重新走向开放的过程中会将其LLMs之一开源化,该模型的规模和性质将有助于作为未来潜在阈值的参考,而低于这个阈值,开放源代码将继续不受限制,如在此阈值之上,人工智能模型将受到限制,包括许可和测试要求以及潜在的出口管制。但是,低于阈值的人工智能和高于该阈值的人工智能之间的区别将难以划分。随着讨论内容从AGI转向对超级智能(super intelligence, 即比AGI更有能力的AI)的关注,使得相关问题变得更复杂,比如人工智能系统应该如何、以及是否与人类的价值观和目标相一致。然而,这个阈值问题促使政策制定者和其他利益相关者考虑人工智能生态系统的哪些部分应该开放,哪些更适合限制。它提出了一个细化和精确的政策结果:同时存在一个基本开放的人工智能生态系统与一个针对超过一定能力阈值的基础模型的严格监管系统。

最后,文章指出,人工智能背景下的开放与封闭框架仍然不完善,双方都需要成为更好的安全和保障模式。正如开源人工智能公司Stability AI所指出的,开放的模型和数据集有助于确保强有力的监督,有权限的第三方可以预测新出现的风险并实施缓解措施。但是,开源许可的性质(通常向所有人提供源代码)为那些意图造成伤害或根本不关心或没有降低风险的资源的实体或个人打开了大门。尽管如此,因为开放与封闭的框架带来了精细的、有针对性的解决方案,其仍然有助于政策分析,即使是不完全开放的人工智能,也应该允许学术界和监管机构等第三方审查数据集、权重和其他人工智能模型的关键部分,以帮助确保模型的安全性。

Pablo Chavez :新美国安全中心技术与国家安全项目的兼职高级研究员和技术政策专家,曾在谷歌、LinkedIn 和微软担任公共政策领导职务,并曾在美国参议院担任高级职员。其研究重点是新兴的云相关法律、法规和政策对国家安全和经济发展的影响。

原文链接:

https://www.cnas.org/publications/commentary/an-ai-challenge-balancing-open-and-closed-systems

继续阅读