天天看点

科技考古——人工智能简史

作者:极客营地

制造智能机器一直是人类感兴趣的焦点之一。

古埃及人和罗马人对牧师在幕后操纵的宗教雕像感到敬畏。中世纪的传说中充满了物品可以像人类主人一样移动和说话的故事。有一些中世纪的圣贤的故事,他们接触到了一个小矮人,这是一个一个小小的人造人,实际却和真人一样有知觉,有智慧。

事实上,16世纪的瑞士哲学家泰奥弗拉斯图斯·邦巴斯特斯说过:

“我们会像神一样。我们将复制上帝最伟大的奇迹——创造人类。”

人类创造“合成智慧”的最新尝试现在被称为人工智能。在这篇文章中,我希望提供一个全面的人工智能历史,从它鲜为人知的日子(当时它甚至不被称为AI)到当前的人工智能时代。

人工智能是制造智能机器,特别是智能计算机程序的科学和工程。——约翰·麦卡锡

本文将把人工智能的历史划分为9个里程碑。这些里程碑并非互不相关。相反,我将讨论它们与人工智能整体历史的联系,以及它们从以前的里程碑之中获取的经验以及取得的进步。

以下是我们将介绍的里程碑:

  • 达特茅斯会议
  • 感知器
  • 20世纪60年代的人工智能热潮
  • 20世纪80年代的人工智能寒冬
  • 专家系统的发展
  • NLP的出现与20世纪90年代的计算机视觉
  • 大数据的兴起
  • 深度学习的到来
  • 生成式人工智能的发展

达特茅斯会议

达特茅斯会议是人工智能历史上的一个开创性事件。它是1956年在美国新罕布什尔州达特茅斯学院举行的一个夏季研究项目。从某种意义上说,这次会议是同类会议中的第一次,它汇集了来自计算机科学、数学、物理和其他看似不同领域的研究人员,唯一的目的是探索人工智能的潜力,尽管当时人工智能这个词还没有被创造出来。与会者包括约翰·麦卡锡、马文·明斯基和其他著名的科学家和学者。

科技考古——人工智能简史

会议期间,与会者讨论了与人工智能相关的广泛主题,如自然语言处理、问题解决和机器学习。他们还为人工智能研究制定了路线图,包括开发用于创建智能机器的编程语言和算法。

达特茅斯会议被认为是人工智能历史上的一个开创性时刻,它标志着人工智能领域的诞生,同时也标志着“人工智能”这个名字的诞生。

达特茅斯会议对人工智能的整个历史产生了重大影响。它有助于将人工智能作为一个研究领域,并鼓励新技术和工艺的发展。

科技考古——人工智能简史

与会者提出了人工智能的愿景,其中包括创造能够像人类一样推理、学习和交流的智能机器。这一愿景引发了该领域的研究和创新浪潮。

会议结束后,约翰·麦卡锡和他的同事们便开发了第一个人工智能编程语言——LISP。这种语言成为人工智能研究的基础,至今仍然存在。

这次会议还促成了括麻省理工学院、卡内基梅隆大学和斯坦福大学在内的几所大学和研究机构建立人工智能研究实验室。

科技考古——人工智能简史

达特茅斯会议最重要的遗产之一是图灵测试的发展。英国数学家艾伦·图灵提出了一个测试的想法,以确定机器是否能表现出与人类无异的智能行为。这一概念在会议上得到了深入讨论,并成为人工智能研究领域的核心思想。图灵测试至今仍是衡量人工智能研究进展的重要基准。

达特茅斯会议是人工智能历史上的一个关键事件。它将人工智能确立为一个研究领域,制定了研究路线图,并引发了该领域的创新浪潮。人工智能编程语言、研究实验室和图灵测试的发展,这些都是这次会议的重要遗产。

感知机

感知机是心理学家弗兰克·罗森布拉特于1958年设计的人工神经网络架构。它推动了著名的“大脑启发人工智能方法”,也就是研究人员构建模拟人类大脑的人工智能系统。

科技考古——人工智能简史

在技术上来说,感知机是一个二元分类器,可以学习将输入模式分为两类。它的工作原理是获取一组输入值并计算这些值的加权和,然后是确定输出是1还是0的阈值函数。在训练过程中可以调整权重以优化分类器的性能。

感知机被视为人工智能的一个重要里程碑,因为它展示了机器学习算法模仿人类智能的潜力。它表明机器可以从经验中学习,并随着时间的推移提高自己的表现,就像人类一样。

科技考古——人工智能简史

感知机是达特茅斯会议之后的下一个重要里程碑。这次会议让很多人对人工智能的潜力感到兴奋,但它在很大程度上仍然是一个理论概念,而感知机取让人们实实在在的看到了机器学习的可能性,它是人工智能的一个实际实现,它表明这个概念是可以变成一个工作系统的。

感知机最初被吹捧为人工智能的突破,受到了媒体的广泛关注。但后来发现,该算法特别是在对复杂数据进行分类时有很大的局限性。这导致20世纪60年代末和70年代人们对感知机和人工智能研究的兴趣下降。

科技考古——人工智能简史

但感知机项目后来被重新启动,并被整合到更复杂的神经网络中,开启了了深度学习和其他形式的现代机器学习的发展。今天,感知机被视为人工智能历史上的一个重要里程碑,并继续被研究和用于新的人工智能技术的研究和开发。

20世纪60年代的人工智能热潮

正如我们前面提到的,由于感知机人工神经网络的创建和普及,20世纪50年代对人工智能界来说是一个重要的十年。感知机被认为是人工智能研究的一个突破,并在该领域引起了极大的兴趣。这是一种兴奋剂,后来被称为人工智能热潮。

20世纪60年代的人工智能热潮是人工智能(AI)发展取得重大进展,并引起人们兴趣的时期。当时,计算机科学家和研究人员正在探索创造智能机器的新方法,并对它们进行编程,使其执行传统上认为只有人类智能才能完成的任务。

当人们发现感知机的明显缺陷后,研究人员开始探索感知机以外的其他人工智能方法。他们专注于诸如符号推理、自然语言处理和机器学习等领域。

这些研究推动了新的编程语言和工具的开发,如 LISP 和 Prolog,这是专门为人工智能应用程序设计的。这些新工具使研究人员更容易用新的人工智能技术进行实验,并开发更复杂的人工智能系统。

在此期间,美国政府也开始对人工智能感兴趣,并开始通过国防高级研究计划局(DARPA)等机构为研究项目提供资金。这笔资金有助于加快人工智能的发展,并为研究人员提供了解决日益复杂的问题所需的资源。

20世纪60年代的人工智能热潮最终中,出现了几个具有里程碑意义的人工智能系统。其中一个例子就是由赫伯特·西蒙、 J.C. 肖和艾伦·纽厄尔共同创造的通用问题解决器(GPS)。GPS是一个早期的人工智能系统,它可以通过搜索大量解决方案来最终解决问题。

科技考古——人工智能简史

另一个例子是由约瑟夫·维森鲍姆创建的 ELIZA 程序,这是一个模拟心理治疗师的自然语言处理程序。

科技考古——人工智能简史

20世纪60年代的人工智能热潮是人工智能研究和开发取得重大进展的时期。当时,研究人员正在探索新的人工智能方法,开发专门为人工智能应用而设计的新编程语言和工具。这项研究推动了几个具有里程碑意义的人工智能系统的发展,为未来人工智能的发展铺平了道路。

20世纪80年代的人工智能寒冬

20世纪80年代的人工智能冬天是指人工智能领域的研究和发展经历了一个显著放缓的时期。这一停滞期发生在1974年至1993年人工智能研究和开发取得重大进展的十年之后。

出现这种情况的部分原因在于,在人工智能热潮时期开发的许多项目未能兑现承诺。由于人工智能领域缺乏新的进展,人工智能研究界正变得越来越失望。这导致资金削减,许多人工智能研究人员被迫放弃他们的项目,完全离开了该领域。

根据英国科学研究委员会的莱特希尔报告:

“人工智能未能实现其宏伟的目标,迄今为止,这个领域的任何发现都没有产生当时承诺的重大影响。”

20世纪80年代的人工智能寒冬的特点是,用于人工智能研究的资金大幅减少,投资者和公众对人工智能普遍缺乏兴趣。这导致正在开发的人工智能项目数量大幅度下降,许多仍然活跃的研究项目由于缺乏资源而无法取得重大进展。

尽管面临人工智能寒冬的挑战,人工智能领域并没有完全消失。一些研究人员继续致力于人工智能项目,并在此期间取得了重大进展,包括神经网络的发展和机器学习的开始。但进展缓慢,直到上世纪90年代,人们对人工智能的兴趣才开始重新抬头。

总的来说,20世纪80年代的人工智能寒冬是人工智能历史上的一个重要里程碑,它展示了人工智能研究和开发的挑战和局限性。它还为投资者和政策制定者提供了警示,他们意识到,围绕人工智能的炒作有时可能被夸大,该领域的进展需要持续的投资和承诺。

专家系统的发展

专家系统是20世纪80年代发展起来的一种人工智能技术。专家系统旨在模仿人类专家在特定领域(比如医学、金融或工程)的决策能力。

在20世纪60年代和70年代初,围绕人工智能和它变革各行各业的潜力,人们感到非常乐观和兴奋。但正如之前说的,这种热情受到了人工智能寒冬的影响,寒冬的特点是缺乏进展和研究资金。

专家系统的发展标志着人工智能历史上的一个转折点。随着人工智能提供实用、可扩展、强大和可量化的应用的需求增加,人工智能社区面临的压力也随之变大。

专家系统证明人工智能可以在现实生活中应用,并有可能为企业和工业带来重大利益。专家系统被用来自动化各个领域的决策过程,从诊断医疗状况到预测股票价格。

在技术层面说,专家系统通常由一个知识库和一个推理机组成,知识库包含特定领域的信息,后者利用这些信息对新的输入进行推理并做出决策。专家系统包括多种形式的推理,如演绎,归纳和诱导,以模拟人类专家的决策过程。

总体而言,专家系统是人工智能历史上的一个重要里程碑,它们展示了人工智能技术的实际应用,并为该领域的进一步发展铺平了道路。

今天,专家系统继续应用于各个行业,它们的发展导致了其他人工智能技术的产生,如机器学习和自然语言处理。

20世纪90年代自然语言处理和计算机视觉的出现

在20世纪90年代,人工智能研究的全球化开始由来一些势头。这一时期开创了现代人工智能研究的先河。

正如前一节所说的,专家系统大约在1980年代末和1990年代初开始发挥作用。但它们受到限制,因为它们依赖于结构化数据和基于规则的逻辑。他们很难处理非结构化数据,比如自然语言文本或图像,这些文本本身就含糊不清,并且依赖于上下文。

为了解决这个问题,研究人员开始发展处理自然语言和视觉信息的技术。

在20世纪70到80年代,基于规则的自然语言处理和计算机视觉系统的开发取得了重大进展。但是,这些系统仍然受到限制,因为它们依赖预先确定的规则,无法从数据中学习。

在20世纪90年代,机器学习算法和计算能力的进步加速了更复杂的自然语言处理和计算机视觉系统的发展。

研究人员开始使用统计方法直接从数据中学习模式和特征,而不是依赖于预先定义的规则。这种被称为机器学习的方法为处理自然语言和可视化信息提供了更加精确和灵活的模型。

这个时代最重要的里程碑之一是隐马尔可夫模型(hMM)的发展,它允许对自然语言文本进行概率建模。这推动了语音识别、语言翻译和文本分类等方面的重大进展。

科技考古——人工智能简史

同样,在计算机视觉领域,卷积神经网络(CNN)的出现使得目标识别和图像分类更加准确。

科技考古——人工智能简史

这些技术现在被广泛应用,从自动驾驶汽车到医学成像。

总的来说,自然语言处理和计算机视觉的出现,是人工智能历史上的一个重要里程碑。它们使非结构化数据的处理更加复杂和灵活。

这些技术仍然是当今人工智能研究和开发的重点,因为它们对广泛的工业和应用具有重大影响。

大数据的崛起

大数据的概念已经存在了几十年,但它在人工智能(AI)领域的突出地位可以追溯到21世纪初。在我们深入探讨它与人工智能的关系之前,让我们简要讨论一下“大数据”这个术语。

对于被定义为大的数据,它需要满足3个核心属性: 容量、速度和多样性。

容量指的是数据集的绝对大小,范围从 TB 到 PB,甚至更大。

速度是指数据生成和需要处理的速度。例如,来自社交媒体或物联网设备的数据可以实时生成,需要快速处理。

多样性指的是生成不同类型的数据,包括结构化、非结构化和半结构化数据。

在大数据出现之前,人工智能受限于用于训练和测试机器学习算法的数据的数量和质量。

自然语言处理(NLP)和计算机视觉是人工智能在20世纪90年代取得重大进展的两个领域,但它们仍然受到可用数据量的限制。

例如,早期的 NLP 系统是基于手工制定的规则,这些规则在处理自然语言的复杂性和可变性方面能力有限。

大数据的兴起改变了这种状况,它提供了从各种来源获取大量数据的途径,包括社交媒体、传感器和其他连接设备。这使得机器学习算法能够在更大的数据集上进行训练,这反过来又使得它们能够学习更复杂的模式并做出更准确的预测。

与此同时,Hadoop和Spark等数据存储和处理技术的进步使得快速有效地处理和分析这些大型数据集成为可能。这导致了新的机器学习算法的发展,例如深度学习,它能够从大量的数据中学习并做出高度精确的预测。

今天,从自动驾驶汽车、个性化医疗到自然语言理解和推荐系统,大数据仍然是人工智能许多最新进展背后的推动力量。

随着生成的数据量继续呈指数级增长,大数据在人工智能中的作用只会在未来几年变得更加重要。

深度学习的来临

深度学习的出现是现代人工智能全球化的一个重要里程碑。

自20世纪50年代达特茅斯会议以来,人工智能一直被认为是一个合法的研究领域,早期的人工智能研究侧重于符号逻辑和基于规则的系统。这涉及到手工编写机器程序,以根据一组预先确定的规则做出决策。虽然这些系统在某些应用中很有用,但它们学习和适应新数据的能力有限。

直到大数据的兴起,深度学习才成为人工智能历史上的一个重要里程碑。随着可用数据量的增长,研究人员需要新的方法来处理和从大量信息中提取见解。

深度学习算法为这个问题提供了一个解决方案,它使机器能够自动从大型数据集中学习,并根据学习做出预测或决策。

深度学习是一种利用人工神经网络进行机器学习的方法,它模拟了人脑的结构和功能。这些网络由相互连接的节点层组成,每个节点对输入数据执行特定的数学函数。一层的输出作为下一层的输入,允许网络从数据中提取越来越复杂的特征。

深度学习的一个关键优势是它能够学习数据的分层表达。这意味着网络可以自动学习识别不同抽象层次的模式和特征。

例如,一个深度学习网络可能学会识别单个字母的形状,然后是单词的结构,最后是句子的意思。

深度学习的发展在计算机视觉、语音识别和自然语言处理等领域取得了重大突破。例如,深度学习算法现在能够准确地分类图像,识别语音,甚至生成逼真的类人语言。

深度学习是人工智能历史上的一个重要里程碑,大数据的兴起使其成为可能。它从大量信息中自动学习的能力已经在广泛的应用中取得了重大进展,并且很可能在未来几年继续成为研究和开发的关键领域。

生成式人工智能的发展

这就是我们在当前人工智能时间线中的位置。生成式人工智能是人工智能的一个子领域,它涉及创建能够生成新数据或内容的人工智能系统,这些生成的数据或内容与它所受训练的数据相似。它可以生成图像、文本、音乐,甚至视频。

在人工智能的历史背景下,生成式人工智能可以被看作是深度学习兴起之后的一个重要里程碑。深度学习是机器学习的一个子集,它涉及使用多层次的神经网络来分析和学习大量的数据。它在图像和语音识别、自然语言处理甚至围棋等复杂游戏中都取得了令人难以置信的成功。

Transformers是一种神经网络结构,已经彻底改变了生成式人工智能的现状。Vaswani 等人在2017年发表的一篇论文中介绍了这些方法,之后它们被用于各种任务,包括自然语言处理、图像识别和语音合成。

Transformers使用自我注意机制来分析序列中不同元素之间的关系,使它们能够产生更加连贯和微妙的输出。这导致了大型语言模型的开发,例如 GPT-4(ChatGPT) ,它可以在广泛的主题上生成类似于人类的文本。

人工智能艺术是生成式人工智能产生重大影响的另一个领域。通过在大型艺术品数据集上训练深度学习模型,生成式人工智能可以创建新颖独特的艺术作品。

生成式人工智能在艺术中的应用引发了关于创造性和作者本质的争论,以及利用人工智能创造艺术的伦理问题。有人认为,人工智能产生的艺术并非真正具有创造性,因为它缺乏人造艺术的意向性和情感共鸣。其他人则认为,人工智能艺术有其自身的价值,可以用来探索新的创造形式。

像 GPT-4这样的大型语言模型也用于创造性写作领域,一些作者使用它们来生成新的文本或作为灵感的工具。

这就提出了关于写作的未来和人工智能在创作过程中的作用的问题。一些人认为人工智能生成的文本缺乏人类写作的深度和细微差别,而另一些人则认为它是一种工具,可以通过提供新的想法和视角来增强人类的创造力。

生成式人工智能,尤其是在Transformers和大型语言模型的帮助下,有可能彻底改变从艺术到写作到模拟的许多领域。尽管在这些领域,关于创造性的本质和使用人工智能的道德规范仍存在争论,但显然,生成式人工智能是一个强大的工具,将继续塑造技术和艺术的未来。

结语

人工智能的历史既有趣又发人深省,它曾经让人失望,也有过非凡的突破。

但是对于像 ChatGPT、 Dalle.E 等应用程序,我们只是触及了人工智能可能应用的皮毛。

未来有挑战,而且肯定会是更多更难挑战。

继续阅读