天天看点

《人工智能法案》草案如果政府监管人工智能,他们会扼杀创新吗?

作者:人工智能的视界

《人工智能法案》草案,欧洲议会最近通过了一项名为《AI法案》的草案,旨在应对人工智能带来的威胁。当前,全球正处于人工智能革命的浪潮中,这一技术正在改变我们的生活和工作方式。然而,人工智能的快速发展也引起了全球的担忧:我们的工作是否会受到威胁?它是否会产生虚假信息、加剧偏见和错误信息?

《人工智能法案》草案如果政府监管人工智能,他们会扼杀创新吗?

为了解决这些问题,我们和我们的政府都在积极努力。欧洲议会已经迈出了第一步,通过了被称为《AI法案》的草案。该法案旨在禁止那些被认为对人类生命构成“不可接受”风险的系统。然而,这可能会引发欧洲政府与在人工智能领域投资数十亿美元的美国科技巨头之间的冲突。

在这个讨论中,我们邀请到了一些嘉宾来分享他们的观点。他们是爱丁堡大学技术道德未来中心研究主任 Atoosa Kasirzadeh、科技企业家兼 Pillar.hr 首席执行官 Mark Simpson,以及剑桥大学机器学习教授 David Krueger。

《AI法案》的通过被认为是人工智能领域迈出的重要一步,为人工智能制定了一套规则。这个法案可能成为创建全球监管机构的框架,但也引发了一个问题:它是否会抑制创新?

我是主持人穆罕默德·贾姆乔姆。当前全球正在经历一场人工智能革命,这一技术正深刻地改变着我们的生活和工作方式。然而,人工智能的迅猛增长也引发了全球的担忧。我们担心自己的工作是否会受到威胁,人工智能是否会产生虚假信息,是否会加剧偏见和错误信息的传播。为了解决这些问题,无论是个人还是政府,我们都在积极努力。

欧洲议会已经采取了第一步来应对这些问题,他们通过了一项名为《AI法案》的草案。这项立法旨在禁止那些被认为对人类生命构成不可接受风险的系统,然而这也可能导致欧洲政府与在人工智能领域投资数十亿美元的美国科技巨头发生冲突。

我认为我们都认识到人工智能的重要性,我们需要进行监管,但糟糕的监管对于人工智能来说也是不可取的。我们的共同目标是尽快达成一个良好的监管框架,该框架得到所有人的认可。当然,我们也需要有效的执行。我们需要这些法律赋予我们的义务在实践中得以落实,以确保人们的安全。我们是第一个通过具体的立法提案来应对迅速发展和演变的技术的国家,我们的目标是建立信任,并对这些系统提供透明度和监督。至少在透明度方面,我们需要有所作为。我们需要明确表明这些内容并非由人类制作,我们还进一步要求这些大型模型的开发者更加透明,与服务提供商共享关于这些系统的培训和开发的信息。

该法律提案旨在确保人工智能系统的安全和道德,并确保科技公司遵守规则和法规。如果他们不遵守,将面临巨额罚款。法律将人工智能系统分为不同的风险级别,低风险系统将有较少的规则和法规,但风险越高,规定将越严格。其中,被认为构成不可接受风险的人工智能系统类别包括在实时公共场合进行面部识别。当然,也会有例外情况。例如,警方可以在实时公共场合使用生物识别监控,比如寻找失踪儿童。但大部分情况下将被禁止。许多欧洲议会议员表示,这与欧盟的价值观根本不符,将侵蚀权利。然而,也有人认为这种监管在安全和执法方面具有一定的价值。

人工智能面临许多挑战,因为它是一个快速发展的系统。决策者真正面临的问题是如何在保护人们权利的同时支持和平衡创新。他们不希望欧盟的大型人工智能公司离开欧盟,转向美国等地。否则,欧盟将在这场技术和人工智能竞赛中落后。

《人工智能法案》草案如果政府监管人工智能,他们会扼杀创新吗?

现在我要和我们的嘉宾一起讨论这个问题。她是爱丁堡大学技术道德未来中心的研究主任,也是英国研究与创新社会和政策影响的高级政策研究员。纽约的马克·辛普森是一位科技创业家,也是Pillar公司的首席执行官,该公司是一家利用人工智能技术的面试智能平台。芝加哥的大卫·克鲁格是剑桥大学的机器学习教授,他的研究重点是人工智能学习中的存在安全性。

让我先问你,对于欧洲议会通过的这项法案,这对于制定人工智能规则书来说意义有多大?

我认为这肯定是一个重要的第一步,但我们还有漫长而艰难的道路要走。我真的很高兴看到欧洲,特别是欧盟,正在努力关注和负责任地思考人工智能的监管。因此,我认为这肯定是一个重要的行动,因为它也向其他大陆和世界上的其他国家表明,我们有能力做些事情。所以这是第一步,让我们继续共同努力。

大卫,上个月我与你交谈时,你和其他技术领导者和科学家发出了关于人工智能带来的危险的警告。这项通过的法案是否让你觉得人们对于人工智能带来的警告更加重视了?

我不会这么说。我也很高兴看到这项立法通过。但这项立法已经酝酿了很长时间,早在我们发表声明之前就已经开始了。而且它并不是专门针对存在性风险。我认为它更多地针对的是我们五年前开始起草时已经看到的那些问题。我认为有很多其他迹象表明人们开始更多地考虑存在性风险。所以我对最近的发展感到鼓舞,但并不是特别对这一点。

如果我可以进一步追问,你看到的其他一些迹象是什么,让你相信其他人现在开始考虑所谓的存在性威胁?

我认为是因为与许多人交谈,包括在像这样的媒体上交谈。此外,我想英国政府已经公开表态过这个问题。我不确定他们的具体计划是什么,或者他们是否在采取正确的行动。但至少他们说他们是认真对待,并试图召集领导人,至少是美国,来讨论这个问题。我认为我们仍然可能缺少应对这个问题有效处理所需的全球范围。我们需要包括中国等其他国家。但这可能是朝着正确方向迈出的一步,虽然也许还为时过早。

马克,如果政府现在竞相监管人工智能,从你的角度来看,可以采取哪些具体步骤来确保创造力和创新不受到压抑?

是的,我们欢迎欧盟的这项新政策,我认为它只需以正确的方式应用即可。对于创新和创造力来说,正确的方式是确保一些原因和一些不良行为有所监管。我的意思是,目前已经有很多法律规定,您不能使用任何形式的技术,无论是人工智能还是其他任何技术,进行不良行为。如果我们遵循当前有效的法律并以与人工智能相关的方式应用这些法律,秉持相同的原则,我认为这可能是一个非常令人鼓舞的步骤。

当涉及到虚假信息和深度伪造技术时,我们从你的角度来看,对此应该有多担忧?

是的,我认为我们应该非常担心,特别是随着生成模型的进步。我们将会获得越来越好的合成媒体,例如由这些技术生成的图像、文本、视频或音频声音等内容。有时候人们很难判断他们在社交媒体和其他平台上看到的内容是由人工智能系统生成的,还是来自可靠来源。当我们无法判断和区分来自可靠来源的内容和由人工智能系统生成的内容时,我们基本上处于一个非常危险的边缘,因为民主机构的威胁就在其中。信任彼此的意义以及对不同政府和机构的信任,这不仅仅是个别国家的问题,而是全球问题,都将被削弱。我对未来的前景没有积极的展望。

大卫,我看到你对我刚才说的一些内容点头表示认同。当然,你用了"存在性"这个词来形容这种情况。这是你和你的同事在谈论人工智能带来的威胁时使用过的词汇。

我非常担心人工智能的发展速度超过了控制速度,这是我和其他人创建声明的原因。我认为这绝对是我的首要关注点,因为我们只是在探索人工智能极端影响的表面,无论是系统的纯粹智能和力量,还是它所带来的社会影响。因此,虚假信息绝对是一个重要问题,它可能会造成灾难性后果。正如之前提到的,虚假信息在未来的存在性风险场景中可能发挥重要作用。

有趣的是,我们尚未看到它在使用现有技术时产生更大的影响。但我认为我们可能正要跨越一个门槛,从而开始对我们的信息生态系统产生巨大影响。以2024年美国选举为例,越来越多的报道称人们正在利用这些系统进行欺诈,这与虚假新闻和合成声音模仿人的声音等相关的另一种风险。总体而言,我认为破坏信任是一个非常重要的问题。它可能迫使人们不得不更多地依赖大型机构,如政府或大型媒体公司。这将带来许多后果。目前,我们仍然可以自己验证我们看到的一些内容是否真实发生,但在未来,我们可能需要依赖权威机构来判断是否应该相信某个内容是否合法,这种情况将越来越多地发生。

马克,作为一位科技创业家,人们经常问你,由于人工智能的原因,是否比以前更容易失去工作。你是如何回答的?

像市场上的任何重大变革一样,我认为人工智能与工业革命和历史上的其他变革一样,确实会对某些工作造成威胁。但我认为这更多是一种工作和技能的转变,而不是我们将失去所有工作。随着技术的进步,某些工作可能会消失,但同时也会创造出新的工作机会。人工智能可能会自动化一些重复性的任务,但它也会催生出需要人类创造力、创新和解决复杂问题的领域。我们需要适应这种变化,通过终身学习和培训来提升自己的技能,以适应未来的工作市场。

总的来说,人工智能的发展带来了机遇和挑战,我们需要全球合作和负责任的监管来确保其合理和可持续的应用。虽然还有很多问题需要解决,但我对人工智能的未来充满信心,相信我们能够共同应对并塑造这个技术的发展。

另外,还有一个相反的观点,即通过人工智能的帮助,我们能够更好地完成工作,为社会增加更多价值。这也可能引发市场的潜在繁荣,我们能够从事更具价值的工作并得到更高的报酬。因此,我相信会有一种转变,以及对所需技能的重大变革。

然而,展望未来几十年的世界,人工智能能够帮助我们。联合国秘书长也对人工智能的快速增长表达了关切,并支持建立一个全球监管机构,确保人工智能技术的安全、可靠、负责任和道德。联合国秘书长还支持了一个提案,呼吁建立一个国际监管机构来监测人工智能。

从我的角度来看,实现这个提案需要相当长的时间。整个过程将非常复杂。就像您所提到的,许多组织需要倾听不同专家的声音。而仅仅说要监测人工智能并没有太多意义,因为人工智能可以是任何东西。简而言之,任何能进行某种推理的算法系统都是人工智能系统。因此,解释和监测人工智能这个概念变得非常复杂。我们需要对监测人工智能的概念进行深入思考。

与监测核能发展的提议相比,我们可以区分或抑制将核能用于军事目的,这是有意义的。但是,如果要抑制将人工智能系统用于军事目的,那就没有意义,因为我认为世界上大多数国家都在军事发展中使用一种或多种形式的人工智能。

对于这些术语的解释,我们需要非常谨慎。我认为这将是一个非常复杂的过程。我们最好的做法是汇集不同声音、不同利益相关者,进行复杂的头脑风暴。否则,这些声明只会是毫无意义的声明。当我们真正要将它们付诸实施时,我们会发现我们无能为力。

关于建立一个监测机构的提案,实现它需要多长时间无法确定。这取决于各种因素,如政治意愿、技术发展和国际合作。然而,我认为现在是开始行动的时候了。我们可以先从监测最大的人工智能模型开始,因为这些模型的构建相对困难,只有少数几个组织有能力实现。通过监测这些模型所需的计算资源和其生产分发过程,我们可以初步实施监测措施。

除了自愿行为准则外,关于人工智能的监管还需要科技行业的参与。自我监管是必要的,很多研究实验室和人工智能公司已经实施了某种形式的自我监管。然而,这仍然不够,因为人工智能系统可能对全球范围内的人类社会带来严重破坏。因此,我们需要进行更严肃、更高级的对话,包括要求首席执行官解释他们所说的自我监管的具体内容。

总之,人工智能监管的问题是复杂的,需要全球合作和跨领域的专家意见。虽然实现监管机构需要时间和努力,但我们应该开始行动,从监测最大的人工智能模型和推动科技行业的参与开始。通过深入思考和积极对话,我们可以朝着安全、可靠和负责任的人工智能发展迈进。

所以,当谈到监管时,康斯坦斯认为这非常重要,这是下一步,他需要明确自我监管或监管的确切含义。否则,我们只会敷衍其事而不做实质性讨论,人工智能的发展也将持续前进。不幸的是,我认为我们将无法有效地进行监管。因此,我们需要更加具体,将不同利益相关者聚集在一起。我们需要倾听那些多年来一直从事负责任、道德和安全人工智能工作的专家们的意见和观点,需要将科技公司首席执行官的观点纳入到充满活力和成效的对话中。否则,我认为我们无法取得任何进展。大卫,我明白你渴望积极参与其中,请继续发表你的看法。是的,我完全同意我刚才说的。只是稍作补充。我的意思是,我们绝对不能相信科技公司会对自己进行有效监管。我认为这种想法本身就是荒谬的,尤其是当这些公司的首席执行官都在呼吁监管。他们并不仅仅是在谈论自我监管。

确实有一些好人,我认为他们在这些公司的一些政策和伦理团队中工作,他们有一些好的想法。因此,我们应该倾听他们的意见,将他们引入对话中。但我刚才已经说过,我们不能完全依赖他们。我认为这是因为在竞争和利润驱动的市场中,公司不会采取行动,尤其是当它涉及到对正在开发或部署这些系统的安全性、可靠性和可接受性提出质疑时。我们真的需要有能力干预并说出这样的系统是不安全、不可靠、不可接受的,即使这会严重损害利润。你就是不能这样做。然而,我目前看到的大部分自我监管和监管都是关于“你可以这样做,但你必须以这种方式做,或者你必须额外做一些事情”。它们没有明确规定的界限,说在某一点上,你将不被允许再开发或部署这样的系统。但这正是我们需要达到的地步。在我看来,当人们讨论监管时,会引发关于过度监管可能性的担忧。

关于您提到的欧盟是否存在过度监管的问题,通过AI法案,是否可能看到一些大型科技公司决定离开欧盟,甚至在监管较少或在美国设立业务,这确实是一个关注点。是的,我只是想就大卫所说的一点表达不同意见,我认为监管不应该限制AI的使用或开发。否则,我们将失去全球竞争优势。我认为监管的重点应该是确立基本原则、法律、道德和安全标准等方面。只要我们以正确的方式进行合作,我认为这是一个非常令人鼓舞的进步。我确实认为,如果我们限制我们的能力和计算能力,我们将在其他国家和地区处于劣势,这是一个令人担忧的情况。对我来说,监管的方式是帮助数千家公司更有效地运作。

目前已经存在很多自我监管和行业内部监管。如果我们做任何不道德的事情、任何违法的事情,我们就不会有客户。多年来一直存在的自我监管仍然存在,并且我们欢迎政府介入,为这项工作提供更多坚实支持。我知道我们时间不多了,但我们已经讨论了关于这个问题的许多复杂性,以及制定监管和立法框架的复杂性。我想问你,你是如何努力在进步和威胁之间取得平衡的?这是一个非常好的问题。我只想说,我不认为有人期望我或其他人能给出简单的答案。但我认为有一件非常重要的事情需要强调,那就是我希望各国政府不仅仅听取大公司CEO对监管的谈论,而是愿意真正发展自己对CEO们对监管工作方式的想法的理解。

《人工智能法案》草案如果政府监管人工智能,他们会扼杀创新吗?

您知道,不幸的说法是,一些来自不同政府的人对技术一无所知,而大公司的CEO和其他人则了解技术。我不认为这是一个二元对立的情况。有像我这样的人,有像大卫这样的人。还有很多其他在这个领域工作的人,他们多年来一直从事关于道德人工智能和负责任人工智能的工作,他们对技术有一定了解,并了解有关监管和政策的历史和社会复杂性。他们需要在这个领域发出响亮的声音。

继续阅读