天天看点

超350名人工智能专家高管联名警告:AI威胁堪比核战争

作者:杨絮6300

近日,一份仅有一句话内容的《AI风险声明》获得了包括OpenAI首席执行官Sam Altman、图灵奖获得者“深度学习之父”Yoshua Bengio和Geoffrey Hinton等超过350位人工智能领域权威专家和高管的联合签名。

超350名人工智能专家高管联名警告:AI威胁堪比核战争

这份声明是由人工智能安全中心这个非营利组织发布的,他们提醒我们,随着人工智能技术的快速发展,其对人类的威胁程度可能与疫情和核战争相当。

声明中写道:“减轻被人工智能灭绝的风险,应该与流行病和核战争等其他大规模社会性风险一样,成为全球优先解决的事项。”

这是继今年3月,生命未来研究所(Future of Life)向全社会发布《暂停人工智能巨模型实验》公开信后,又一次针对人工智能潜在危害的高调表态。那封公开信呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。这封公开信获得了马斯克、约书亚·本希奥、苹果联合创始人Steve Wozniak等上千名研究者和科学家的公开签名。

超350名人工智能专家高管联名警告:AI威胁堪比核战争

值得注意的是,在这份声明中,一起署名的还有中国科学院自动化研究所研究员曾毅、清华大学教授张亚勤、助理教授詹仙园等不少中国学者。

曾毅表示,签署声明的目的并非要阻碍AI的发展,而是要探索AI稳健发展的途径。他认为,对于AI对人类造成生存风险的担忧,可能存在两种情况:一种是远期人工智能的威胁,另一种是近期人工智能的威胁。

针对远期而言,当通用人工智能和超级智能到来时,由于智力水平可能远超过人类,超级智能视人类如同人类视蚂蚁,很多人据此认为超级智能将与人类争夺资源,甚至危及到人类的生存。针对近期而言,由于当代人工智能只是看似智能的信息处理工具,没有真正的理解能力,也不是真正的智能,因此会以人类难以预期的方式犯下人类不会犯的错误。如果AI技术恶意滥用、或误用,那么带来的风险将难以预料和无法控制。

超350名人工智能专家高管联名警告:AI威胁堪比核战争

他指出,远期人工智能的挑战,我们如果从现在开始研究“如何规避其风险”才尚有可能应对,近期人工智能的这种风险则显得更为紧迫。他认为,应用GPT-4 的技术竞赛创造了一个有害的循环,呼吁所有AI实验室暂停比GPT-4更强大的AI系统的训练,并优先为AI设计并实现安全框架。

他建议,我们应该探索如何让人工智能实现可持续发展,这可能是一个有益的选择。为了实现这一目标,我们需要逐步提升人工智能的智能水平,只有这样,AI技术才能真正实现可持续发展。

《AI风险声明》目前引起了社会各界的广泛关注和热议。一些支持者认为,这是一次及时而必要的警示和呼吁,有助于提高公众对AI潜在风险的意识和防范。一些批评者则认为,这是一种过度夸大和恐慌化的表达方式,会转移人们对AI当前面临的更紧迫和现实问题的注意力。

超350名人工智能专家高管联名警告:AI威胁堪比核战争

无论如何,《AI风险声明》反映了一个不容忽视的事实:AI技术已经深刻地影响着我们生活和社会的方方面面,并且还在不断地进化和创新。如何确保AI技术既能为我们带来福祉又不会危及我们生存?

一直以来,人工智能的威胁论主要有两种观点,一种是基于人工智能的超越性,认为人工智能会在某个临界点达到或超过人类的智力水平,从而获得自我意识和自主权,可能会反抗或取代人类;另一种是基于人工智能的不对称性,认为人工智能会被不良的个人或组织利用,用于进行恐怖主义、网络攻击、信息操纵等活动,破坏社会秩序和国际安全。

这两种观点都有一些知名的支持者,例如物理学家霍金、企业家马斯克、哲学家博斯特罗姆等。他们都曾经发表过关于人工智能危险性的言论,并呼吁对人工智能进行更严格的监管和道德规范。他们认为,如果不及时采取措施,人类可能会面临被人工智能奴役或灭绝的风险。

超350名人工智能专家高管联名警告:AI威胁堪比核战争

然而,并不是所有的专家和学者都赞同人工智能的威胁论。相反,有很多人认为人工智能是一种有利于人类发展和进步的技术,它可以帮助我们解决许多难题,提高我们的生活质量和幸福感。他们认为,人工智能并不是一个单一的实体,而是一个多样化和分层次的概念,它包括了不同类型、级别和目标的系统和应用。目前我们所使用的大部分人工智能都是弱人工智能,也就是只能在特定领域或任务中表现出优越性的系统。

要达到强人工智能,也就是可以在任何领域或任务中与人类匹敌或超越的系统,还需要很长时间和很多技术突破。更不用说超级人工智能,也就是可以在所有领域或任务中远远超越任何人类或其他系统的系统了。

即使有一天,强人工智能或超级人工智能真的出现了,它们也不一定会对人类产生敌意或威胁。因为这取决于它们的设计原则、目标函数、价值观等因素。如果我们可以让它们与我们保持一致或兼容,那么它们就可能成为我们最好的合作伙伴和助手。当然,这也需要我们在制定和实施人工智能时遵循一些原则和规范,例如尊重人权、保护隐私、促进公平、增加透明度等。

超350名人工智能专家高管联名警告:AI威胁堪比核战争

目前看来,还不能一概而论地认为人工智能是好是坏,是机遇还是威胁。应该客观地分析和评估它带来的利弊和影响,并根据具体情况做出合理选择和决策。

继续阅读