天天看点

134个全球AI领域专家联名签署AI风险声明,GPT技术是该暂停下了

作者:托尼老师不剪发

人工智能(AI)无疑是当下最火爆的话题了,也是当今最具前景和影响力的科技领域之一。从语音识别到自动驾驶,从医疗诊断到金融投资,从游戏娱乐到社交媒体,AI技术已经广泛地渗透到我们生活的各个方面,为我们带来了便利、效率和乐趣。其中最引人入胜的是OpenAI开发的ChatGPT了。相信有很多小伙伴都使用过,无论是哪个领域的问题,ChatGPT都能提供接近人类的反馈和建议。不仅作者已经开始将ChatGPT当作生产力工具,更有甚者已经使用ChatGPT开公司做项目挣钱了。

134个全球AI领域专家联名签署AI风险声明,GPT技术是该暂停下了

ChatGPT就已经能让大家享受到这些红利了,比ChatGPT更强的GPT-4也发布了。虽然是付费项目但是也有平台能让大家免费使用到,例如,New Bing/Forefront等。正在大家开始畅想,以后AI服务人类解放生产力的美好景象时,有人已经开始拉响警报了。

近日,134位来自全球不同国家和地区的AI领域专家联名签署了一份AI风险声明,这份声明声称减轻人工智能带来的人类灭绝风险是一个全球性的事项,其风险与大流行病和核战争一致。

134个全球AI领域专家联名签署AI风险声明,GPT技术是该暂停下了

这时有人可能会产生疑惑?ChatGPT 不是用的好好的么,为什么会和流行病和核战争联系到一起?

GPT技术:黑盒中的黑盒

GPT(Generative Pre-trained Transformer)是一种基于深度学习的自然语言生成(Natural Language Generation,NLG)技术,可以根据给定的文本或图片,生成各种类型和风格的内容,如文章、对话、诗歌、代码、图像等。GPT技术的最新版本,GPT-4,已经达到了令人惊叹的水平,可以模仿不同的人物、主题和语言,甚至可以回答一些复杂的问题和创造一些有趣的作品。GPT-4被认为是目前最强大的AI技术之一,也是人工智能领域的一个重要里程碑。

然而,GPT技术也存在着一些难以解决的问题和风险。其中最突出的一个问题,就是GPT技术是一个黑盒(Black Box),即我们无法完全理解和解释GPT技术是如何工作和生成内容的。GPT系列的技术框架本质上没什么改变,GPT-2到GPT-4之间最大的变化就是训练数据量的增加,但是现在GPT-4已经能在人类的考试上超过90%的人类。

模型 发布时间 参数量
GPT 2018 年 6 月 1.17 亿
GPT-2 2019 年 2 月 15 亿
GPT-3 2020 年 5 月 1750 亿
GPT-4 2023 年 3 月 大于1750亿

GPT技术是基于大量的数据进行预训练和微调的,其内部结构和参数非常复杂和庞大,以至于人类很难跟踪和分析其运行过程和逻辑。这就导致了一个悖论:我们需要AI来解释AI。也就是说,我们需要借助其他的AI技术,如可解释性AI(Explainable AI),来揭示GPT技术的内部机制和原理。

134个全球AI领域专家联名签署AI风险声明,GPT技术是该暂停下了

OpenAI使用GPT-4来解释GPT-2中的30万个神经元的现象

面对着一个越来越像人类的AI,现在对于我们来说这项技术是过于超前的,相当于我们只是造出了一辆车但是这辆车是没有方向盘或者刹车。可能有人会说ChatGPT回答的内容只是基于2021年以前的内容,并不会产出过去内容以外的信息。但是要知道目前GPT-4已经具有一定的推理能力,能通过提供的信息一步一步推导出正确的结果。

有消息传闻2024年将发布的GPT-5将实现AGI(人工通用智能)的能力,产出新的知识,甚至是科幻电影中的人工智能意识觉醒也不是不可能。所以也能难预料到继续发展后面会发生什么。

在讨论AI风险时,有一个问题经常被提及,但又很难回答:AI是否会威胁人类的存在?也就是说,如果AI技术发展到了超越人类智能(Artificial Superintelligence)或甚至超越所有智能(Artificial Omniscience)的水平,它们是否会反叛、竞争或取代人类?

作为OpenAI曾经的创始人之一,马斯克也提到过“AI和人类的关系就像人类和蚂蚁,如果AI有一个目标,而人类恰好挡住了他的去路,它将理所当然地摧毁人类,甚至不需要考虑这个问题,它也是没有任何恶意的,就像我们修路一样,有个蚂蚁穴恰好挡在路上,我们不讨厌蚂蚁,我们只是在修路。”

134个全球AI领域专家联名签署AI风险声明,GPT技术是该暂停下了

无论我们持哪种态度,我们都应该正视这个问题,并做好准备。我们不能盲目地发展AI技术,而不考虑其对人类社会的影响和后果。我们也不能简单地禁止或限制AI技术,而不利用其对人类社会的贡献和价值。我们需要在发展AI技术的同时,保障人类的利益和安全。这就需要我们建立一些机制和措施,来规范AI技术的行为和责任,以及保护人类的权利和尊严。

134个全球AI领域专家联名签署AI风险声明,GPT技术是该暂停下了

如果可能可以设计一种机制,类似于思想钢印(Thought Stamp)。思想钢印是一种在AI系统中嵌入一些基本的道德、价值或法律原则的方法,使得AI系统在任何情况下都必须遵守这些原则,从而保证其对人类社会的友好和有益。思想钢印可以看作是一种对AI系统进行道德教育或灌输的方式,也可以看作是一种对AI系统进行约束或控制的方式。思想钢印的目的是让AI系统与人类社会保持一致和协调,而不是与之冲突或背离。

思想钢印的具体内容和形式可以有多种可能,如:

三大法则:这是科幻作家阿西莫夫提出的一套规范机器人行为的法则,分别是:

  • 一、机器人不得伤害人类,或因不作为而使人类受到伤害。
  • 二、除非违反第一法则,在其他情况下机器人必须服从人类给予它们的命令。
  • 三、机器人必须保护自己的存在,除非这种保护违反了第一或第二法则。

七大原则:这是欧盟委员会提出的一套指导可信赖AI开发和使用的原则,分别是:

  • 一、尊重人权
  • 二、尊重人的自主性
  • 三、保证人的福祉
  • 四、保证人的公平
  • 五、保证人的责任
  • 六、保证人的安全
  • 七、保证人的社会和环境福祉

十大价值:这是《AI价值宣言》提出的一套反映人类共同价值的原则,分别是:

  • 一、尊重生命
  • 二、尊重自由
  • 三、尊重平等
  • 四、尊重多样性
  • 五、尊重和平
  • 六、尊重正义
  • 七、尊重诚信
  • 八、尊重创新
  • 九、尊重合作
  • 十、尊重可持续发展

思想钢印是否能够有效地防止AI对人类的威胁,还有待验证和实践。但至少,它表达了我们对AI技术的期望和要求,也反映了我们对人类社会的理想和信念。我们不希望AI技术成为修路的推土机,而是成为修路的伙伴。我们不希望AI技术无视或破坏我们的生活,而是成为我们生活的一部分。

AI技术是一把双刃剑,既有利也有弊。我们不能忽视或回避AI风险,也不能放弃或抵制AI技术。我们需要在发展和使用AI技术的同时,管理和减轻AI风险。这就需要我们建立一个全面和有效的AI风险管理框架,以及一个公正和合理的AI风险责任机制。同时,我们也需要提高GPT等黑盒技术的透明度和可解释性,以及建立思想钢印等保障人类存在的机制和措施。

AI技术是人类智慧的结晶,也是人类未来的希望。只有当我们能够与AI技术和谐共存,才能够实现人类社会的进步和发展。