天天看点

AI是否需要自我意识才能拥有超级智能?专家观点分歧

作者:TechMind

人工智能的崛起证明了一件事,那就是这项技术可能比最知名的专家们想象的还要聪明。

微软的研究人员惊讶地发现,GPT-4——ChatGPT迄今为止最先进的语言模型,能够提出巧妙的解决方案来解决谜题,比如如何以稳定的方式堆叠一本书、九个鸡蛋、一台笔记本电脑、一个瓶子和一个钉子。其中一位研究人员告诉《连线》杂志,当他让GPT-4用一种晦涩的编码语言画一只独角兽时,他感到吃惊。

另一项研究表明,AI化身可以在很少人类干预的情况下管理自己的虚拟城镇。

AI是否需要自我意识才能拥有超级智能?专家观点分歧

这些能力可能提供了人工通用智能(Artificial General Intelligence,AGI)的一瞥:即技术能够实现类似常识和意识等复杂的人类能力。虽然接受《Insider》采访的AI专家对AGI的真正形态有不同看法,但他们一致认为,朝着一种新形式的智能正在取得进展。

《AI现状》年度报告的合著者、投资于数十家AI初创公司的Ian Hogarth将AGI定义为“上帝般的AI”,由一个“超级智能计算机”组成,能够“自主学习和发展”,并能够在没有人类干预的情况下理解语境。他告诉《Insider》说,理论上,具有AGI的技术可以培养自我意识,并且“成为我们无法控制或理解的力量”。

OpenAI的一位AGI研究人员告诉《Insider》,AGI有可能像2023年科幻电影《M3GAN》中的杀人机器人一样,这个电影中,一只逼真的由人工智能驱动的玩偶拒绝关机,假装睡觉,并发展出自己的道德复杂性。

AI是否需要自我意识才能拥有超级智能?专家观点分歧

但DeepMind(Google的人工智能部门)的AGI安全研究员Tom Everitt表示,机器不必具有自我意识就能拥有超级智能。他告诉《Insider》:“我认为最常见的误解之一是‘意识’对于智能是必需的。”他说,“模型‘自我意识’并不是这些模型与人类水平智能相匹配或增强的先决条件。”

他将AGIAGI定义为可以以超越其训练限制的方式解决任何认知或人类任务的AI系统。理论上,AGI可以帮助科学家们开发治疗疾病、发现新型可再生能源以及解决“人类最大的谜题”。

Everitt表示:“如果做得正确,AGI可以成为一种极其强大的工具,推动突破,改变我们日常生活。”AI专家们对于AGI何时成为现实存在分歧。

AI是否需要自我意识才能拥有超级智能?专家观点分歧

被称为“人工智能教父”的Geoffrey Hinton告诉CBS,AGI可能在五年内问世。本月早些时候,他告诉BBC,AI聊天机器人可能很快比人类更聪明。

Hogarth表示,没有人确切知道工业界距离创造上帝般的AI有多远。他补充道,像OpenAI的GPT-4、Google DeepMind的Gato或开源项目AutoGPT这样的工具可能发生的事情,我们确实不知道。《连线》杂志指出,AutoGPT是在GPT-4上运行的虚拟代理,可以自主订购比萨和运营市场推广活动。

他说,我们已经看到了AGI的一些端倪,比如恶意使用的Deepfake技术和能够超过国际象棋大师的机器。

但这些只是暗示:“AI系统仍然缺乏长期规划能力、记忆、推理以及对我们周围物理世界的理解。”Everitt表示,“我们还有很多工作要做,来找出如何赋予这些系统这些能力。”

如果不解决其风险,AGI可能使人类变得过时。

AI是否需要自我意识才能拥有超级智能?专家观点分歧

专家表示,建立AGI的重要部分涉及了解和解决其风险,以便能够安全地部署这项技术。

一项AI研究发现,当研究人员增加输入到语言模型的数据量时,这些模型更有可能忽视人类指令,甚至表示不愿关机。这一发现表明,AI在某个时刻可能变得非常强大,以至于人类将无法控制它。

如果发生这种情况,Hogarth预测AGI可能会“导致人类灭绝或毁灭”。

这就是为什么像Everitt这样的研究人员正在研究AGI安全性,以预测关于“人类如何保持对AGI控制”的“存在性问题”。他说,Google的DeepMind非常重视伦理和安全研究,以“确保我们在开发越来越强大的AI时采取负责任的方法。

为了以负责任的方式发展AI技术,Hogarth表示,监管是关键。他说:“监管机构应该密切关注OpenAI的GPT-4、Google DeepMind的Gato或开源项目AutoGPT等项目。”他还表示,许多AI和机器学习专家呼吁将AI模型开源,以便公众可以了解它们的训练方式和运行原理。

AI是否需要自我意识才能拥有超级智能?专家观点分歧

Everitt表示:“我们需要尽早讨论这些重大问题,欢迎各种不同的观点和思考方式。”他强调说,迎接多元化的观点对于处理这个问题至关重要。

总之,虽然对于AGI的具体形态仍存在许多未知,但AI专家们一致认为我们已经开始看到AGI的一些迹象。建立AGI的过程中,理解和解决其风险是至关重要的,以确保技术能够安全地应用。监管和开源透明是发展AI的负责任方式,同时也需要广泛的讨论和多元的思考。