天天看点

人工智能的历史

人工智能的历史

(2011-07-16 21:00:42)

标签:

校园

分类: 工作篇

人工智能(artificial intelligence, AI)的历史源远流长. 在古代的神话传说中, 技艺高超的工匠可以制作人造人, 并为其赋予智能或意识. 正如Pamela McCorduck所说, AI的起源是“古人成为造物神的愿望”.

现代意义上的AI始于古典哲学家用机械符号处理的观点解释人类思考过程的尝试. 二十世纪四十年代基于抽象数学推理的可编程数字计算机的发明标志着这一工作的高潮. 计算机的出现及其背后的原理使一批科学家开始严肃地探讨构造一个电子大脑的可能性.

1956年, 在Dartmouth学院校园里举行的一次会议上正式确立了人工智能的研究领域. 会议的参加者在接下来的数十年间是AI研究的领军人物. 他们中有许多人预言, 经过一代人的努力, 与人类具有同等智能水平的机器将会出现. 同时, 上千万美元被投入到AI研究中, 以期实现这一目标.

最终研究人员发现自己大大低估了这一工程的难度. 由于James Lighthill爵士的批评和国会方面的压力, 美国和英国政府于1973年停止向没有明确目标的人工智能研究项目拨款. 七年之后受到日本政府研究规划的刺激, 美国政府和企业再次在AI领域投入数十亿研究经费, 但这些投资者在八十年代末重新撤回了投资. AI研究领域诸如此类的高潮和低谷不断交替出现; 至今仍有人对AI的前景作出异常乐观的预测.

尽管在政府官僚和风投资本家那里经历了大起大落, AI领域仍在取得进展. 某些在二十世纪七十年代被认为不可能解决的问题今天已经获得了圆满解决并已成功应用在商业产品上. 与第一代AI研究人员的乐观估计不同, 与人类具有同等智能水平的机器至今仍未出现. Alan Turing在1950年发表的一篇催生现代智能机器研究的著名论文中称, “我们只能看到眼前的一小段距离… 但是, 我们可以看到仍有许多工作要做”.

1 先驱

McCorduck在其著作“会思考的机器(Machines Who Think)”(2004)中写道, “在西方文明史中随处可见关于人工智能的设想. 这是人们迫切希望实现的一个梦想.” 先民对人工智能的追求表现在诸多神话, 传说, 故事, 预言以及各种发条机器人之中.

1.1 神话, 幻想和预言中的AI

希腊神话中已经出现了机械人和人造人, 例如Hephaestus的金色机器人和Pygmalion的Galatea. 中世纪出现了使用巫术或炼金术将意识赋予无生命物质的传说, 例如Jābir ibn Hayyān的Takwin, Paracelsus的侏儒和Rabbi Judah Loew的Golem. 十九世纪的幻想小说中出现了人造人和会思考的机器之类题材, 例如Marry Shelley的“弗兰肯斯坦(Frankenstein)”, Karel Čapek的“R.U.R(Rossum’s Universal Robots, 卢梭的通用机器人)”. Samuel Butler的“机器中的达尔文(Darwin among the Machines)”一文(1863)探讨了机器通过自然选择进化出智能的可能性. 至今人工智能仍然是科幻小说的重要元素.

1.2 自动机器人

许多文明中都有创造人形机器人的杰出工匠, 例如偃师(中国西周), Alexandria的Hero(希腊), Al-Jazari(阿拉伯), Wolfgang von Kempelen(匈牙利). 已知最古老的“机器人”是古代埃及和希腊的圣像, 忠实的信徒认为工匠为这些神像赋予了思想, 使它们具有智慧和激情. Hermes Trismegistus写道, “自从发现神的本原, 人类就能使之重现.”

1.3 形式推理

人工智能的基本假设是人类的思考过程可以机械化. 对于机械化推理(即所谓“形式推理(formal reasoning)”)的研究已有很长历史. 中国, 印度和希腊哲学家均已在公元前的第一个千年里提出了形式推理的结构化方法. 他们的想法为后世的哲学家所继承和发展, 其中著名的有Aristotle(对三段论逻辑进行了形式分析), Euclid(其著作“几何原本”是形式推理的典范), al-Khwārizmī(代数学的先驱, “algorithm”一词由他的名字演变而来)以及欧洲经院哲学家Ockham的William, Duns Scotus等.

马略卡哲学家Ramon Llull(1232-1315)开发了一些逻辑机, 试图通过逻辑方法获取知识. Llull的机器能够将基本的, 无可否认的真理通过机械手段用简单的逻辑操作进行组合, 以求生成所有可能的知识. Llull的工作对Gottfried Leibniz产生了很大影响, 后者进一步发展了他的思想.

在十七世纪中, Leibniz, Thomas Hobbes和René Descartes尝试将理性的思考系统化为代数学或几何学那样的体系. Hobbes在其著作“利维坦(Leviathan, 又译巨灵论)”中有一句名言: “推理就是计算(reason is nothing but reckoning).” Leibniz设想了一种用于推理的普适语言(他的“通用表意文字(characteristica universalis)”), 能将推理规约为计算, 从而使“哲学家之间, 就像会计师之间一样, 不再需要争辩. 他们只需拿出铅笔放在石板上, 然后向对方说(如果想要的话,可以请一位朋友作为证人), 我们开始算吧.” 这些哲学家已经开始明确提出形式符号系统的假设, 而这一假设将成为AI研究的指导思想.

在二十世纪, 数理逻辑研究上的突破使得人工智能好像呼之欲出. 这方面的基础著作包括Boole的“思维的定律(The Laws of Thought)”与Frege的“概念文字(Begriffsschrift)”. 基于Frege的系统, Russell和Whitehead在他们于1913年出版的巨著“数学原理(Principia Mathematica)”中对数学的基础给出了形式化描述. 这一成就激励了David Hilbert, 后者向二十世纪二十和三十年代的数学家提出了一个基础性的难题: “能否将所有的数学推理形式化?” 这个问题的最终回答由Gödel的不完全性证明, Turing机和Church的Lambda演算给出. 他们的答案令人震惊: 首先, 他们证明了数理逻辑的局限性; 其次(这一点对AI更重要), 他们的工作隐含了任何形式的数学推理都能在这些限制之下机械化的可能性. Church-Turing论题暗示, 一台仅能处理0和1这样简单二元符号的机械设备能够模拟任意数学推理过程. 这里最关键的灵感是Turing机: 这一看似简单的理论构造抓住了抽象符号处理的本质. 这一创造激发科学家们探讨让机器思考的可能.

1.4 计算机科学

用于计算的机器古已有之; 历史上许多数学家(包括上面提到过的Gottfried Leibniz)对其作出了改进. 十九世纪初, Charles Babbage设计了一台可编程计算机(“分析机”), 但未能建造出来. Ada Lovelace预言, 这台机器“将创作出无限复杂, 无限宽广的精妙的科学乐章”. (她常被认为是第一个程序员, 因为她留下的一些笔记完整地描述了使用这一机器计算Bernoulli数的方法.)

第一批现代计算机是二战期间建造的大型译码机(包括Z3, ENIAC和Colossus等). 这些机器的理论基础是Alan Turing和John Von Neumann提出和发展的学说.

2 人工智能的诞生: 1943 – 1956

在二十世纪四十和五十年代, 来自不同领域(数学, 心理学, 工程学, 经济学和政治学)的一批科学家开始探讨制造人工大脑的可能性. 1956年, 人工智能被确立为一门学科.

2.1 控制论与早期神经网络

最初的人工智能研究是三十年代末到五十年代初的一系列科学进展交汇的产物. 神经学研究发现大脑是由神经元组成的电子网络, 其激励电平只存在“有”和“无”两种状态, 不存在中间状态. Norbert Weiner的控制论描述了电子网络的控制和稳定性. Claude Shannon提出的信息论则描述了数字信号(即高低电平代表的二进制信号). Alan Turing的计算理论证明数字信号足以描述任何形式的计算. 这些密切相关的想法暗示了构建电子大脑的可能性.

这一阶段的工作包括一些机器人的研发, 例如W. Grey Walter的“乌龟(turtles)”, 还有“约翰霍普金斯兽”(Johns Hopkins Beast). 这些机器并未使用计算机, 数字电路和符号推理; 控制它们的是纯粹的模拟电路.

Walter Pitts和Warren McCulloch分析了理想化的人工神经元网络, 并且指出了它们进行简单逻辑运算的机制. 他们是最早描述所谓“神经网络”的学者. Marvin Minsky是他们的学生, 当时是一名24岁的研究生. 1951年他与Dean Edmonds一道建造了第一台神经网络机, 称为SNARC. 在接下来的五十年中, Minsky是AI领域最重要的领导者和创新者之一.

2.2 游戏AI

1951年, Christopher Strachey使用Manchester大学的Ferranti Mark 1机器写出了一个西洋棋(checkers)程序; Dietrich Prinz则写出了一个国际象棋程序. Arthur Samuel在五十年代中期和六十年代初开发的西洋棋程序的棋力已经可以挑战具有相当水平的业余爱好者. 游戏AI一直被认为是评价AI进展的一种标准.

2.3 Turing测试

1950年, Alan Turing发表了一篇划时代的论文, 文中预言了创造出具有真正智能的机器的可能性. 由于注意到“智能”这一概念难以确切定义, 他提出了著名的Turing测试: 如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份, 那么称这台机器具有智能. 这一简化使得Turing能够令人信服地说明“思考的机器”是可能的. 论文中还回答了对这一假说的各种常见质疑. Turing测试是人工智能哲学方面第一个严肃的提案.

2.4 符号推理与“逻辑理论家”程序

五十年代中期, 随着数字计算机的兴起, 一些科学家直觉地感到可以进行数字操作的机器也应当可以进行符号操作, 而符号操作可能是人类思维的本质. 这是创造智能机器的一条新路.

1955年, Allen Newell和(后来荣获Nobel奖的)Herbert Simon在J. C. Shaw的协助下开发了“逻辑理论家(Logic Theorist)”. 这个程序能够证明Russell和Whitehead所著“数学原理”前52个定理中的38个, 其中某些证明比原著更加新颖和精巧. Simon认为他们已经“解决了神秘的心/身问题, 解释了物质构成的系统如何获得心灵的性质.” (这一断言的哲学立场后来被John Searle称为“强人工智能”, 即机器可以像人一样具有思想.)

2.5 1956年Dartmouth会议: AI的诞生

1956年Dartmouth会议的组织者是Marvin Minsky, John McCarthy和另两位资深科学家Claude Shannon以及Nathan Rochester, 后者来自IBM. 会议提出的断言之一是“学习或者智能的任何其他特性的每一个方面都应能被精确地加以描述, 使得机器可以对其进行模拟.” 与会者包括Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell和Herbert Simon, 他们中的每一位都将在AI研究的第一个十年中作出重要贡献. 会上Newell和Simon讨论了“逻辑理论家”, 而McCarthy则说服与会者接受“人工智能”一词作为本领域的名称. 1956年Dartmouth会议上AI的名称和任务得以确定, 同时出现了最初的成就和最早的一批研究者, 因此这一事件被广泛承认为AI诞生的标志.

3 黄金年代: 1956 – 1974

Dartmouth会议之后的数年是大发现的时代. 对许多人而言, 这一阶段开发出的程序堪称神奇: 计算机可以解决代数应用题, 证明几何定理, 学习和使用英语. 当时大多数人几乎无法相信机器能够如此“智能”. 研究者们在私下的交流和公开发表的论文中表达出相当乐观的情绪, 认为具有完全智能的机器将在二十年内出现. ARPA(Advanced Research Projects Agency, 高等研究计划局)等政府机构向这一新兴领域投入了大笔资金.

3.1 研究工作

从五十年代后期到六十年代涌现了大批成功的AI程序和新的研究方向. 下面列举其中最具影响的几个.

3.1.1 搜索式推理

许多AI程序使用相同的基本算法. 为实现一个目标(例如赢得游戏或证明定理), 它们一步步地前进, 就像在迷宫中寻找出路一般; 如果遇到了死胡同则进行回溯. 这就是“搜索式推理”.

这一思想遇到的主要困难是, 在很多问题中, “迷宫”里可能的线路总数是一个天文数字(所谓“指数爆炸”). 研究者使用启发式算法去掉那些不太可能导出正确答案的支路, 从而缩小搜索范围.

Newell和Simon试图通过其“通用解题器(General Problem Solver)”程序, 将这一算法推广到一般情形. 另一些基于搜索算法证明几何与代数问题的程序也给人们留下了深刻印象, 例如Herbert Gelernter的几何定理证明机(1958)和Minsky的学生James Slagle开发的SAINT(1961). 还有一些程序通过搜索目标和子目标作出决策, 如Stanford为控制机器人Shakey而开发的STRIPS系统.

3.1.2 自然语言

AI研究的一个重要目标是使计算机能够通过自然语言(例如英语)进行交流. 早期的一个成功范例是Daniel Bobrow的程序STUDENT, 它能够解决高中程度的代数应用题.

如果用节点表示语义概念(例如“房子”, “门”), 用节点间的连线表示语义关系(例如“有 — 一个”), 就可以构造出“语义网(semantic net)”. 第一个使用语义网的AI程序由Ross Quillian开发; 而最为成功(也是最有争议)的一个则是Roger Schank的“概念关系(Conceptual Dependency)”.

Joseph Weizenbaum的ELIZA是第一个聊天机器人, 可能也是最有趣的会说英语的程序. 与ELIZA“聊天”的用户有时会误以为自己是在和人类, 而不是和一个程序, 交谈. 但是实际上ELIZA根本不知道自己在说什么. 它只是按固定套路作答, 或者用符合语法的方式将问题复述一遍.

3.1.3 微世界

六十年代后期, MIT AI实验室的Marvin Minsky和Seymour Papert建议AI研究者们专注于被称为“微世界”的简单场景. 他们指出在成熟的学科中往往使用简化模型帮助基本原则的理解, 例如物理学中的光滑平面和完美刚体. 许多这类研究的场景是“积木世界”, 其中包括一个平面, 上面摆放着一些不同形状, 尺寸和颜色的积木.

在这一指导思想下, Gerald Sussman(研究组长), Adolfo Guzman, David Waltz(“强制传播(constraint propagation)”的提出者), 特别是Patrick Winston等人在机器视觉领域作出了创造性贡献. 同时, Minsky和Papert制作了一个会搭积木的机器臂, 从而将“积木世界”变为现实. 微世界程序的最高成就是Terry Winograd的SHRDLU, 它能用普通的英语句子与人交流, 还能作出决策并执行操作.

3.2 乐观思潮

第一代AI研究者们曾作出了如下预言:

1958年, H. A. Simon, Allen Newell: “十年之内, 数字计算机将成为国际象棋世界冠军.” “十年之内, 数字计算机将发现并证明一个重要的数学定理.”

1965年, H. A. Simon: “二十年内, 机器将能完成人能做到的一切工作.”

1967年, Marvin Minsky: “一代之内… 创造`人工智能’的问题将获得实质上的解决.”

1970年, Marvin Minsky (在生命杂志(Life Magazin)上): “在三到八年的时间里我们将得到一台具有人类平均智能的机器.”

3.3 经费

1963年六月, MIT从新建立的ARPA(即后来的DARPA, 国防高等研究计划局)获得了二百二十万美元经费, 用于资助MAC工程, 其中包括Minsky和McCarthy五年前建立的AI研究组. 此后ARPA每年提供三百万美元, 直到七十年代为止. ARPA还对Newell和Simon在CMU的工作组以及Stanford AI项目(由John McCarthy于1963年创建)进行类似的资助. 另一个重要的AI实验室于1965年由Donald Michie在Edinbugh大学建立. 在接下来的许多年间, 这四个研究机构一直是AI学术界的研究(和经费)中心.

经费几乎是无条件地提供的: 时任ARPA主任的J. C. R. Licklider相信他的组织应该“资助人, 而不是项目”, 并且允许研究者去做任何感兴趣的方向. 这导致了MIT无约无束的研究氛围及其hacker文化的形成. 但是好景不长.

4 第一次AI低谷: 1974 – 1980

到了七十年代, AI开始遭遇批评, 随之而来的还有资金上的困难. AI研究者们对其课题的难度未能作出正确判断: 此前的过于乐观使人们期望过高, 当承诺无法兑现时, 对AI的资助就缩减或取消了. 同时, 由于Marvin Minsky对感知器的激烈批评, 联结主义(即神经网络)销声匿迹了十年. 七十年代后期, 尽管遭遇了公众的误解, AI在逻辑编程, 常识推理等一些领域还是有所进展.

4.1 问题

七十年代初, AI遭遇了瓶颈. 即使是最杰出的AI程序也只能解决它们尝试解决的问题中最简单的一部分, 也就是说所有的AI程序都只是“玩具”. AI研究者们遭遇了无法克服的基础性障碍. 尽管某些局限后来被成功突破, 但许多至今仍无法满意地解决.

计算机的运算能力. 当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题. 例如, Ross Quillian在自然语言方面的研究结果只能用一个含二十个单词的词汇表进行演示, 因为内存只能容纳这么多. 1976年Hans Moravec指出, 计算机离智能的要求还差上百万倍. 他做了个类比: 人工智能需要强大的计算能力, 就像飞机需要大功率动力一样, 低于一个门限时是无法实现的; 但是随着能力的提升, 问题逐渐会变得简单.

计算复杂性和指数爆炸. 1972年Richard Karp根据Stephen Cook于1971年提出的定理证明, 许多问题只可能在指数时间内获解(即, 计算时间与输入规模的幂成正比). 除了那些最简单的情况, 这些问题的解决需要近乎无限长的时间. 这就意味着AI中的许多玩具程序恐怕永远也不会发展为实用的系统.

常识与推理. 许多重要的AI应用, 例如视觉和自然语言, 都需要大量对世界的认识信息. 程序应该知道它在看什么, 或者在说些什么. 这要求程序对这个世界具有儿童水平的认识. 研究者们很快发现这个要求太高了: 1970年没人能够做出如此巨大的数据库, 也没人知道一个程序怎样才能学到如此丰富的信息.

Moravec悖论. 证明定理和解决几何问题对计算机而言相对容易, 而一些看似简单的任务, 如人脸识别或穿过屋子, 实现起来却极端困难. 这也是七十年代中期视觉和机器人方面进展缓慢的原因.

框架和资格问题. 采取逻辑观点的AI研究者们(例如John McCarthy)发现, 如果不对逻辑的结构进行调整, 他们就无法对常见的涉及自动规划(planning or default reasoning)的推理进行表达. 为解决这一问题, 他们发展了新逻辑学(如非单调逻辑(non-monotonic logics)和模态逻辑(modal logics)).

4.2 停止拨款

由于缺乏进展, 对AI提供资助的机构(如英国政府, DARPA和NRC)对无方向的AI研究逐渐停止了资助. 早在1966年ALPAC(Automatic Language Processing Advisory Committee, 自动语言处理顾问委员会)的报告中就有批评机器翻译进展的意味, 预示了这一局面的来临. NRC(National Research Council, 美国国家科学委员会)在拨款二千万美元后停止资助. 1973年Lighthill针对英国AI研究状况的报告批评了AI在实现其“宏伟目标”上的完全失败, 并导致了英国AI研究的低潮(该报告特别提到了指数爆炸问题, 以此作为AI失败的一个原因). DARPA则对CMU的语音理解研究项目深感失望, 从而取消了每年三百万美元的资助. 到了1974年已经很难再找到对AI项目的资助.

Hans Moravec将批评归咎于他的同行们不切实际的预言: “许多研究者落进了一张日益浮夸的网中”. 还有一点, 自从1969年Mansfield修正案通过后, DARPA被迫只资助“具有明确任务方向的研究, 而不是无方向的基础研究”. 六十年代那种对自由探索的资助一去不复返; 此后资金只提供给目标明确的特定项目, 比如自动坦克, 或者战役管理系统.

4.3 来自大学的批评

一些哲学家强烈反对AI研究者的主张. 其中最早的一个是John Lucas, 他认为Gödel的不完全性定理已经证明形式系统(例如计算机程序)不可能判断某些陈述的真理性, 但是人类可以. Hubert Dreyfus讽刺六十年代AI界那些未实现的预言, 并且批评AI的基础假设, 认为人类推理实际上仅涉及少量“符号处理”, 而大多是具体的, 直觉的, 下意识的“窍门(know how)”. John Searle于1980年提出“中文屋子”实验, 试图证明程序并不“理解”它所使用的符号, 即所谓的“意向性(intentionality)”问题. Searle认为, 如果符号对于机器而言没有意义, 那么就不能认为机器是在“思考”.

AI研究者们并不太把这些批评当回事, 因为它们似乎有些离题, 而计算复杂性和“让程序具有常识”等问题则显得更加紧迫和严重. 对于实际的计算机程序而言, “常识”和“意向性”的区别并不明显. Minsky提到Dreyfus和Searle时说, “他们误解了, 所以应该忽略”. 在MIT任教的Dreyfus遭到了AI阵营的冷遇: 他后来说, AI研究者们“生怕被人看到在和我一起吃中饭”. ELIZA程序的作者Joseph Weizenbaum感到他的同事们对待Dreyfus的态度不太专业, 而且有些孩子气. 虽然他直言不讳地反对Dreyfus的论点, 但他“清楚地表明了他们待人的方式不对”.

Weizenbaum后来开始思考AI相关的伦理问题, 起因是Kenneth Colby开发了一个模仿医师的聊天机器人DOCTOR, 并用它当作真正的医疗工具. 二人发生争执; 虽然Colby认为Weizenbaum对他的程序没有贡献, 但这于事无补. 1976年Weizenbaum出版著作“计算机的力量与人类的推理(Computer Power and Human Reason)”, 书中表示人工智能的滥用可能损害人类生命的价值.

4.4 感知器与联结主义遭到冷落

感知器是神经网络的一种形式, 由Frank Rosenblatt于1958年提出. Rosenbllatt和Marvin Minsky二人曾是Bronx科学高中的校友. 与多数AI研究者一样, 他对这一发明的潜力非常乐观, 预言说“感知器最终将能够学习, 作出决策和翻译语言”. 整个六十年代里这一方向的研究工作都很活跃.

1969年Minsky和Papert出版了著作“感知器(Perceptrons)”, 书中暗示感知器具有严重局限, 而Frank Rosenblatt的预言过于夸张. 这本书的影响是破坏性的: 联结主义的研究因此停滞了十年. 后来新一代研究者使这一领域获得重生, 并使其成为人工智能中的重要部分; 遗憾的是Rosenblatt没能看到这些, 他在“感知器”一书问世后不久即因游船事故去世.

4.5 “简约派(the neats)”: 逻辑, Prolog语言和专家系统

早在1958年, John McCarthy就提出了名为“纳谏者(Advice Taker)”的一个程序构想, 将逻辑学引入了AI研究界. 1963年, J. Alan Robinson发现了在计算机上实现推理的简单方法: 归结(resolution)与合一(unification)算法. 然而, 根据六十年代末McCarthy和他的学生们的工作, 对这一想法的直接实现具有极高的计算复杂度: 即使是证明很简单的定理也需要天文数字的步骤. 七十年代Robert Kowalsky在Edinburgh大学的工作则更具成效: 法国学者Alain Colmerauer和Phillipe Roussel在他的合作下开发出成功的逻辑编程语言Prolog. Prolog使用计算较为易控(tractable)的逻辑子集(Horn子句, 与“规则”或“产生规则”密切相关). 规则的使用影响深远, 为Edward Feigenbaum的“专家系统”奠定了基础. Alan Newell和Herbert Simon的后续工作导致了SOAR(一种认知结构)和“统一认知理论(unified theories of cognition)”的出现.

Dreyfus等人针对逻辑方法的批评观点认为, 人类在解决问题时并没有使用逻辑运算. 心理学家Peter Wason, Eleanor Rosch, Amos Tversky, Daniel Kahneman等人的实验证明了这一点. McCarthy则回应说, 人类怎么思考是无关紧要的: 真正想要的是解题机器, 而不是模仿人类进行思考的机器.

4.6 “芜杂派(the scruffies)”: 框架和脚本

对McCarthy的做法持批评意见的还有他在MIT的同行们. Marvin Minsky, Seymour Papert和Roger Schank等试图让机器像人一样思考, 使之能够解决“理解故事”和“目标识别”一类问题. 为了使用“椅子”, “饭店”之类最基本的概念, 他们需要让机器像人一样作出一些非逻辑的假设. 不幸的是, 这些不精确的概念难以用逻辑进行表达. Gerald Sussman注意到, “使用精确的语言描述本质上不精确的概念, 并不能使它们变得精确起来”. Schank用“芜杂(scruffy)”一词描述他们这一“反逻辑”的方法, 与McCarthy, Kowalski, Feigenbaum, Newell和Simon等人的“简约(neat)”方案相对.

在1975年的一篇开创性论文中, Minsky注意到与他共事的“芜杂派”研究者在使用同一类型的工具, 即用一个框架囊括所有相关的常识性假设. 例如, 当我们使用“鸟”这一概念时, 脑中会立即浮现出一系列相关事实, 如会飞, 吃虫子, 等等. 我们知道这些假设并不一定正确, 使用这些事实的推理也未必符合逻辑, 但是这一系列假设组成的结构正是我们所想和所说的一部分. 他把这个结构称为“框架(frames)”. Schank使用了“框架”的一个变种, 他称之为“脚本(scripts)”, 基于这一想法他使程序能够回答关于一篇英语短文的提问. 多年之后的面向对象编程采纳了AI“框架”研究中的“继承(inheritance)”概念.

5 繁荣: 1980 – 1987

在八十年代, 一类名为“专家系统”的AI程序开始为全世界的公司所采纳, 而“知识处理”成为了主流AI研究的焦点. 日本政府在同一年代积极投资AI以促进其第五代计算机工程. 八十年代早期另一个令人振奋的事件是John Hopfield和David Rumelhart使联结主义重获新生. AI再一次获得了成功.

5.1 专家系统获得赏识

专家系统是一种程序, 能够依据一组从专门知识中推演出的逻辑规则在某一特定领域回答或解决问题. 最早的示例由Edward Feigenbaum和他的学生们开发. 1965年起设计的Dendral能够根据分光计读数分辨混合物. 1972年设计的MYCIN能够诊断血液传染病. 它们展示了这一方法的威力.

专家系统仅限于一个很小的知识领域, 从而避免了常识问题; 其简单的设计又使它能够较为容易地编程实现或修改. 总之, 实践证明了这类程序的实用性. 直到现在AI才开始变得实用起来.

1980年CMU为DEC(Digital Equipment Corporation, 数字设备公司)设计了一个名为XCON的专家系统, 这是一个巨大的成功 — 在1986年之前, 它每年为公司省下四千万美元. 全世界的公司都开始研发和应用专家系统, 到1985年它们已在AI上投入十亿美元以上, 大部分用于公司内设的AI部门. 为之提供支持的产业应运而生, 其中包括Symbolics, Lisp Machines等硬件公司和IntelliCorp, Aion等软件公司.

5.2 知识革命

专家系统的能力来自于它们存储的专业知识. 这是七十年代以来AI研究的一个新方向. Pamela McCorduck在书中写道, “不情愿的AI研究者们开始怀疑, 因为它违背了科学研究中对最简化的追求. 智能可能需要建立在对分门别类的大量知识的多种处理方法之上.” “七十年代的教训是智能行为与知识处理关系非常密切. 有时还需要在特定任务领域非常细致的知识.” 知识库系统和知识工程成为了八十年代AI研究的主要方向.

第一个试图解决常识问题的程序Cyc也在八十年代出现, 其方法是建立一个容纳一个普通人知道的所有常识的巨型数据库. 发起和领导这一项目的Douglas Lenat认为别无捷径, 让机器理解人类概念的唯一方法是一个一个地教会它们. 这一工程几十年也没有完成.

5.3 重获拨款: 第五代工程

1981年, 日本经济产业省拨款八亿五千万美元支持第五代计算机项目. 其目标是造出能够与人对话, 翻译语言, 解释图像, 并且像人一样推理的机器. 令“芜杂派”不满的是, 他们选用Prolog作为该项目的主要编程语言.

其他国家纷纷作出响应. 英国开始了耗资三亿五千万英镑的Alvey工程. 美国一个企业协会组织了MCC(Microelectronics and Computer Technology Corporation, 微电子与计算机技术集团), 向AI和信息技术的大规模项目提供资助. DARPA也行动起来, 组织了战略计算促进会(Strategic Computing Initiative), 其1988年向AI的投资是1984年的三倍.

5.4 联结主义的重生

1982年, 物理学家John Hopfield证明一种新型的神经网络(现被称为“Hopfield网络”)能够用一种全新的方式学习和处理信息. 大约在同时(早于Paul Werbos), David Rumelhart推广了“反传法(backpropagation)”, 一种神经网络训练方法. 这些发现使1970年以来一直遭人遗弃的联结主义重获新生.

1986年由Rumelhart和心理学家James McClelland主编的两卷本论文集“分布式并行处理”问世, 这一新领域从此得到了统一和促进. 九十年代神经网络获得了商业上的成功, 它们被应用于光字符识别和语音识别软件.

6 第二次AI低谷: 1987 – 1993

八十年代中商业机构对AI的追捧与冷落符合经济泡沫的经典模式, 泡沫的破裂也在政府机构和投资者对AI的观察之中. 尽管遇到各种批评, 这一领域仍在不断前进. 来自机器人学这一相关研究领域的Rodney Brooks和Hans Moravec提出了一种全新的人工智能方案.

6.1 AI之冬

“AI之冬(AI winter)”一词由经历过1974年经费削减的研究者们创造出来. 他们注意到了对专家系统的狂热追捧, 预计不久后人们将转向失望. 事实被他们不幸言中: 从八十年代末到九十年代初, AI遭遇了一系列财政问题.

变天的最早征兆是1987年AI硬件市场需求的突然下跌. Apple和IBM生产的台式机性能不断提升, 到1987年时其性能已经超过了Symbolics和其他厂家生产的昂贵的Lisp机. 老产品失去了存在的理由: 一夜之间这个价值五亿美元的产业土崩瓦解.

XCON等最初大获成功的专家系统维护费用居高不下. 它们难以升级, 难以使用, 脆弱(当输入异常时会出现莫名其妙的错误), 成了以前已经暴露的各种各样的问题(例如资格问题(qualification problem))的牺牲品. 专家系统的实用性仅仅局限于某些特定情景.

到了八十年代晚期, 战略计算促进会大幅削减对AI的资助. DARPA的新任领导认为AI并非“下一个浪潮”, 拨款将倾向于那些看起来更容易出成果的项目.

1991年人们发现十年前日本人宏伟的“第五代工程”并没有实现. 事实上其中一些目标, 比如“与人展开交谈”, 直到2010年也没有实现. 与其他AI项目一样, 期望比真正可能实现的要高得多.

6.2 躯体的重要性: Nouvelle AI与嵌入式推理

八十年代后期, 一些研究者根据机器人学的成就提出了一种全新的人工智能方案. 他们相信, 为了获得真正的智能, 机器必须具有躯体 – 它需要感知, 移动, 生存, 与这个世界交互. 他们认为这些感知运动技能对于常识推理等高层次技能是至关重要的, 而抽象推理不过是人类最不重要, 也最无趣的技能(参见Moravec悖论). 他们号召“自底向上”地创造智能, 这一主张复兴了从六十年代就沉寂下来的控制论.

另一位先驱是在理论神经科学上造诣深厚的David Marr, 他于七十年代来到MIT指导视觉研究组的工作. 他排斥所有符号化方法(不论是McCarthy的逻辑学还是Minsky的框架), 认为实现AI需要自底向上地理解视觉的物理机制, 而符号处理应在此之后进行. (1980年, 因为白血病, Marr的工作减少了.)

在发表于1990年的论文“大象不玩象棋(Elephants Don’t Play Chess)”中, 机器人研究者Rodney Brooks提出了“物理符号系统假设”, 认为符号是可有可无的, 因为“这个世界就是描述它自己最好的模型. 它总是最新的. 它总是包括了需要研究的所有细节. 诀窍在于正确地, 足够频繁地感知它.” 在八十和九十年代也有许多认知科学家反对基于符号处理的智能模型, 认为躯体是推理的必要条件, 这一理论被称为“嵌入式认知(embodied mind/reason/cognition)”论题.

7 AI: 1993 – 现在

现已年过半百的AI终于实现了它最初的一些目标. 它已被成功地用在技术产业中, 不过有时是在幕后. 这些成就有的归功于计算机性能的提升, 有的则是在高尚的科学责任感驱使下对特定的课题不断追求而获得的. 不过, 至少在商业领域里AI的声誉已经不如往昔了. “实现人类水平的智能”这一最初的梦想曾在六十年代令全世界的想象力为之着迷, 其失败的原因至今仍众说纷纭. 各种因素的合力将AI拆分为各自为战的几个子领域, 有时候它们甚至会用新名词来掩饰“人工智能”这块被玷污的金字招牌. AI比以往的任何时候都更加谨慎, 却也更加成功.

7.1 里程碑和Moore定律

1997年五月十一日, 深蓝成为战胜国际象棋世界冠军Garry Kasparov的第一个计算机系统. 2005年, Stanford开发的一台机器人在一条沙漠小径上成功地自动行驶了131英里, 赢得了DARPA挑战大赛头奖. 2009年, 蓝脑项目(Blue Brain Project)声称已经成功地模拟了部分鼠脑.

这些成就的取得并不是因为范式上的革命. 它们仍然是工程技术的复杂应用, 但是计算机性能已经今非昔比了. 事实上, 深蓝计算机比Christopher Strachey在1951年用来下棋的Ferranti Mark 1快一千万倍. 这种剧烈增长可以用Moore定律描述: 计算速度和内存容量每两年翻一番. 计算性能上的基础性障碍已被逐渐克服.

7.2 智能体

九十年代, 被称为“智能体(intelligent agents)”的新范式被广泛接受. 尽管早期研究者提出了模块化的分治策略, 但是直到Judea Pearl, Alan Newell等人将一些概念从决策理论和经济学中引入AI之后, 现代智能体范式才逐渐形成. 当经济学中的“理性人(rational agent)”概念与计算机科学中的“对象”或“模块”相结合, “智能体”范式就越发完善了.

智能体是一个系统, 它感知周围环境, 然后采取措施使成功的几率最大化. 最简单的智能体是解决特定问题的程序. 已知的最复杂的智能体是理性的, 会思考的人类. 智能体范式将AI研究定义为“对智能体的学习”. 这是对早期一些定义的推广: 它超越了研究人类智能的范畴, 涵盖了对所有种类的智能的研究.

这一范式让研究者们通过学习孤立的问题找到可证的并且有用的解答. 它为AI各领域乃至经济学, 控制论等使用抽象代理概念的领域提供了描述问题和共享解答的一种通用语言. 人们希望能找到一种完整的架构(像Newell的SOAR那样), 允许研究者们应用交互的智能体建立起通用的智能系统.

7.3 “简约派”的胜利

越来越多的AI研究者们开始开发和使用复杂的数学工具. 人们广泛地认识到, 许多AI需要解决的问题已经成为数学, 经济学和运筹学领域的研究课题. 数学语言的共享不仅使AI可以与其他学科展开更高层次的合作, 而且使研究结果更易于评估和证明. AI已成为一门更严格的科学分支. Russell和Norvig(2003)将这些变化视为一场“革命”和“简约派的胜利”.

Judea Pearl发表于1988年的名著将概率论和决策理论引入AI. 现已投入应用的新工具包括Bayesian网络, 隐Markov模型, 信息论, 随机模型和经典优化理论. 针对神经网络和进化算法等“计算智能”范式的精确数学描述也被发展出来.

7.4 幕后的AI

AI研究者们开发的算法开始变为较大的系统的一部分. AI曾经解决了大量的难题, 这些解决方案在产业界起到了重要作用. 应用了AI技术的有数据挖掘, 工业机器人, 物流, 语音识别, 银行业软件, 医疗诊断和Google搜索引擎等.

AI领域并未从这些成就之中获得多少益处. AI的许多伟大创新仅被看作计算机科学工具箱中的一件工具. Nick Bostrom解释说, “很多AI的前沿成就已被应用在一般的程序中, 不过通常没有被称为AI. 这是因为, 一旦变得足够有用和普遍, 它就不再被称为AI了.”

今天的许多AI研究者故意用其他一些名字称呼他们的工作, 例如信息学, 知识系统, 认知系统或计算智能. 部分原因是他们认为他们的领域与AI存在根本的不同, 不过新名字也有利于获取经费. 至少在商业领域, 导致AI之冬的那些未能兑现的承诺仍然困扰着AI研究, 正如New York Times在2005年的一篇报道所说: “计算机科学家和软件工程师们避免使用人工智能一词, 因为怕被认为是在说梦话.”

7.5 HAL 9000在哪里?

1968年Arthur C. Clarke和Stanley Kubrick创作的“2001: 太空漫游”中设想2001年将会出现达到或超过人类智能的机器. 他们创造的这一名为HAL-9000的角色是以科学事实为依据的: 当时许多顶极AI研究者相信到2001年这样的机器会出现.

“那么问题是, 为什么在2001年我们并未拥有HAL呢?” Marvin Minsky问道. Minsky认为, 问题的答案是绝大多数研究者醉心于钻研神经网络和遗传算法之类商业应用, 而忽略了常识推理等核心问题. 另一方面, John McCarthy则归咎于资格问题(qualification problem). Ray Kurzweil相信问题在于计算机性能, 根据Moore定律, 他预测具有人类智能水平的机器将在2029年出现. Jeff Hawkins认为神经网络研究忽略了人类大脑皮质的关键特性, 而简单的模型只能用于解决简单的问题. 还有许多别的解释, 每一个都对应着一个正在进行的研究计划.

 本文译自维基条目History of artificial intelligence

人工智能的研究进展

史忠植

1.概述

  由国际人工智能联合会(IJCAII)和美国人工智能学会(AAAI)主办的第17届国际人工智能联合会议(17th International Joint Conference On Artificial Intelligence)于2001年8月4日至10日在美国华盛顿州西雅图召开。这是两年一度的国际人工智能界最高学术会议,共有约1500人参加了此次会议。中国大陆有三位学者参加,他们是中国科学院计算技术研究所的史忠植研究员,中国科学院软件技术研究所的程虎教授,以及南京大学计算机软件新技术国家重点实验室的周志华博士。

  会议共收到796篇高水平的投稿,一共录取论文197篇,录用率约为24.7%。录用文章分类如表1所示。

表1 1JCM-01论文分布情况

主题 论文数

Case-based reasoning

Cognitive modeling

Diagnosis

5

6

6

Games

Knowledge representation and reasoning

3

31

Logic programming and theorem proving 10

Machine learning and data mining

Multi-agent systems

Natural language processing and information retrieval

23

27

14

Neural networks and genetic algorithms

P1anning

Robotics and perception

8

15

14

Search,Satisfiability,and constraint satisfaction problems

Uncertainty and probabilistic reasoning

Web applications

19

12

4

总计 197

  可以看出,知识表示和推理以及搜索和约束满足问题作为传统人工智能研究的核心部分,仍然占有相当大的比重。另外,虽然ICML和KDD分流了很多机器学习和数据挖掘领域的优秀论文,但这两个领域在IJCAI-01录用的论文中仍有很大的比例,这充分说明这两个领域正处于蓬勃发展之中。

  尤其值得注意的是,多agent系统的论文已经超过了机器学习与数据挖掘,占据第二位。事实上,IJCAI-01录用的论文中,约有40%与这个领域有关。这可能有两个原因。一方面,如Manuela Veloso在特邀报告中所指出的,近年来RoboCup的发展对多agent系统的研究有很大的促进作用。另一方面,agent作为一种抽象概念,已经深入人心。正如同面向对象的概念,虽然真正致力于研究面向对象机制的工作并不是很多,但很多领域的工作都涉及到这个概念。实际上,agent的概念已经广泛出现在知识表示、推理、学习等领域。可以预见,在未来的几年内,多agent系统仍然会是一个热门的话题。

  在会上,英国爱丁堡大学Donald Michie教授因他在机器学习、机器人和基于知识的系统等领域的卓越成就,获得了IJCAI终身成就奖(IJCAI Award for Research Excellence),这是国际人工智能界的最高荣誉,成为继John McCarthy、Allen Newell、Marvin Minsky、Herbert Simon等人之后的第7位获奖者。美国斯坦福大学Daphne Koller教授获得了IJCAI计算机与思维奖(IJCAI Computers and Thought Award),这一国际人工智能界35岁以下青年学者的最高奖项。

  奥地利维也纳理工大学的Thomas Eiter和Thomas Lukasiewicz的论文"Complexity results for structure-based causality"最后获得最佳论文奖。

  在会议技术程序(technical program)正式开始之前,举行了主题为"基于agent的系统"、"约束"、"知识表示与推理"、"机器学习与数据挖掘"、"本体论"、"规划与机器人"等的31个研讨会(work-shop)。此外还由一些国际著名学者主讲了20场讲座(tutorial)。

  在技术程序开始的第一天,微软公司总裁比尔·盖茨做了一小时的题为"AI in the computing experience:Challenges and opportunities"的大会报告。盖茨在报告中强调了人工智能技术在微软公司的目标--研制更聪明、更易于使用的软件--中的重要性。在他报告时,微软雷德蒙研究院的研究人员简要介绍了他们在智能多模态用户界面、数据挖掘、智能浏览和检索等领域对人工智能技术的探索,并做了精彩的演示。

  此外,2001年机器人世界杯足球赛RoboCup-01与IJCAI-01同时同地举行。比赛分中型组、小型组、Sony四腿机器人组和仿真组。清华大学参加了仿真组的比赛,在决赛中,清华大学代表队在加时赛以一粒金球战胜德国Karlsruhe Brainstormers队荣获冠军。中国科技大学参加了Sony四腿机器人组和仿真组的比赛。这是来自中国的代表队第一次参加Sony四腿机器人组的比赛,中国科技大学代表队在四分之一决赛中惜败给美国宾州大学代表队,最后获得第8名。中国科技大学另一支参加仿真组比赛的代表队获得第6名。

2.知识表示

  知识表示这门技术,其现状可与当年web出现之前的超文本(hypertext)的情况相比,知识表示代表了一种很好的思路,目前已存在着一些有说服力的Demo,但知识表示这门技术,尚未改变我们的世界。知识表示蕴藏着重要的应用前景,但要全面挖掘这门技术的潜力,它必须被链入到一个全球性的单一系统中。

  传统的知识表示系统,足典型的集中式的,而且要求共同遵守一些公共概念(如"父母","交通工具")完全一致的定义。然而,集中式的控制机制具有抑制作用,随着系统规模的扩大,系统将变得难以管理。

  更重要的是,为做到可靠地回答提问,这些系统通常对系统能够作答的问题做了仔细地限定。若不作限制,则可靠性将受到影响。任一足够复杂的系统,都存在它回答不了的问题,这个问题从-个侧面反映了Goldel数学定理。为避开此问题,传统的知识表示系统一般都有它们各自狭义的,特有的用于信息推理的规则集合。例如,在一家谱系统中,根据数据库中数据进行推理时,可能用到如下规则?quot;叔叔的妻子是阿姨"。尽管数据能从一个系统转换到另一系统,但由于系统间的推理规则通常以完全不同的形式存在,而致使一个系统的规则不能用于其他系统。

  相反,语义网研究者们为了追求系统丰富的功能,允许一些系统回答不了的或似是而非问题存在,这是代价。我们让推理语言具有一定的表达能力,以进行广泛地web推理。这一道理类似于传统的web:在web发展早期,有批评者指出,没有集中的数据库和树型结构,web永远不会成为一个组织良好的"信息图书馆"。然而,事实上,系统强大的表达能力,使大量信息成为可得的,而且搜索引擎--这10年前被认为是很不现实的东西,如今已显著地给人们提供了大量信息材料完整的索引。由此看来,语义网所面临的挑战是,能否提供一种既能表达数据又能表示推理规则的语言,并且该语言能让现有知识表示系统中的推理规则应用于系统外的web。

  将逻辑加人web中,意味着用规则进行推理,选择动作路线,最终问答与任务相关的提问。数学和工程上的综合考虑复杂化了这一任务。足够强大的逻辑能够描述对象的复杂属性,但它还是不能让agent成功地回答一些似是而非的问题。所幸,大部分我们想要表达的信息类似于"十六个头的螺钉是一种机械螺钉"这一难度级别,它们可以比较容易地用现有的语言,加上一点额外的词汇表达出来。

  XML(可扩展标记语言)和RDF(资源描述框架)是两种可用于开发语义网的重要技术。利用XML可以自己定义标记(tag),例如<zip code>,<alma mater>,对网页中文本段进行注释。如果程序员知道这些标记的用意,那么就可以编写脚本(script)或程序来分析网页的内容。简言之,XMI。使用户能将任意的结构添加到文档中,而无需说明结构的具体含义。

  RDF通过一些包含对象、属性、值的三元组来表达意思。这些三元组可以用XML标记表示。在RDF中,文档用一系列属性(姐妹,作者)以及相应的值来描述特定的事物(如人,网页等任何其他事物)。事实证明,这是种描述大量数据的自然的方法、主题和对象均由统一资源标识符URI来标识,URI也被用于表示网页中的链接(统一资源定位符URL是最普通的URI)。动词也可用URI标识,这样能让每个人都可以定义新的概念和新的动词以指向web的某个网页。

  人类语言因为一词多义而变得丰富。然而对计算机自动处理而言却不然。设想,我雇了一个服务员,让他将生日气球送到客户处。不幸的是,服务员将我数据库中一些地址传到他的数据库中,却不清楚其中哪些是付款地址,哪些是邮箱地址。服务员将会因为地址混淆,而遇到一些不必要的麻烦。用不同的URI表示不同的具体概念,可以解决此问题。

  RDF的三元组构成了一些相互关联事物的信息网。RDF用URI对信息进行编码,URI确保了具体的概念不仅仅是一些文档中的文字,而且还将这些概念同web中的一个唯一的定义联系在一起,任何人都能在网上找到该定义。例如,我们通过访问数据库得到人们的住址等信息,如果我们想找到居住在某一邮编地址范围内的人时,我们需要知道数据库纪录中的哪个字段表示姓名,哪个表示邮编。用URI而非用短语逐项说明,RDF能够指定"(数据库A中的第5字段)(是一个类型字段)(邮编)"这一规格。

3.概率推理

  Koller教授因她在概率推理的理论和实践、机器学习、计算博弈论等领域的重要贡献,成为继Terry Winograd、David Marr、Tom Mitchell、Rodney Brooks等人之后的第18位获得IJCAI计算机与思维奖。在题为"Representation,Reasoning,and Learning"的答谢报告中,Keller教授介绍了概率推理和学习,并强调了将推理与知识表示和学习相结合的重要性。从早期AI研究将推理置于至高无上的地位,到Rodney Brooks在1991年ECAI计算机与思维奖答谢报告"Intelligence without resoning"中对推理的全面否定,再到Daphne Koller的答谢报告,人工智能界对推理的价值逐渐有了更深刻的认识。可以预见,推理技术,尤其足概率推理及其与知识表示、学习机制的结合,将在未来几年内成为一个研究热点。

  美国康奈尔大学的Joseph Y.Halpern在题为"Plausibility measures:A general approach representing uncertainty"的特邀报告中,介绍了称为"plausibility"的一种用于非精确推理的新机制。"plausibility"是对概率的推广。Halpern指出,这种机制可用于对信念及信念修正、缺省推理、以及决策规则等的研究。

  奥地利维也纳理工大学的Thomas Eiter和Thomas Lukasiewicz的获奖论文"Complexity results for structure-based causality"从变元问的因果、事件因果和概率因果着手,分析了Pearl的结构化模型中因果关系的计算复杂度,尤其是分析了Halpern和Pearl的弱和实际因果概念的复杂度。在此过程中,他们还证明了Halpern和Pearl的一个猜想,并且建立了其他一些语义结果。

4.本体论

  在哲学上,本体论是关于事物存在的本质的理论。在计算机科学中,它是指领域概念的结构化规范,它形式地定义了领域内相关概念之间的关系。Web最典型的本体论有一个分类法和一组推理规则。

分类法定义了对象的类和它们之间的关系。类、子类和实体之间的关系是一个用于web的非常强大的工具。通过赋予类以属性并允许子类继承这些属性,我们能够表达实体间大量的关联。例如,如果"城市编码"必须有"城市"类型,而城市一般都有网站,那么即使没有数据库直接把一个城市编码连接到一个网站,我们也能讨论网站以及与之相关的一个"城市编码"。本体论中的推理规则提供了更深层次的能力。如果一个本体论表达了一个规则:"如果一个城市编码和一个州编码相联系,并且一个地址用那个城市编码,那么这个地址和那个州编码相联?quot;,那么一个程序就能够容易地进行推断。例如,康奈尔大学地址在Ithaca,那么就一定在纽约州,而纽约州在美国,因此,这个康奈尔大学地址的格式应符合美国标准。计算机并不真币理解任何信息,但它可以一种有意义的方式,更高效地操作这些术语。

  随着本体论网页在web上的出现,解决术语学(还有其他)问题的方法开始形成。用在网页上的术语或者XML代码的意义可以通过从网页指向一个本体论的链接来定义。另外,用不同的URI来标识不同的概念,将不会发生概念的混淆,而且它还能描述概念间的相互关联。

  本体论所提供的结构和语义使得一个企业更容易提供相关的服务并且能够使得它的应用完全透明。本体论可以多方面地增加web的功能。它们可以用一种简单的方式来增加网络搜索的准确性。搜索程序可以仅仅搜寻那些指向精确概念的页面而不是搜索所有用模糊关键字的页面。更加高级的应用可以用本体来关联一个网页上的信息和相关知识结构及推理规则。

5.智能主体

  "人工智能是计算机科学的一个分支,它的目标是构造能表现出-定的智能行为的主体(agent)"。因此,主体是人工智能的核心问题。Stanford大学计算机科学系的Barbara败涂地Hayes-Roth在IJCAI'95的特约报告中淡到:"智能的计算机主体既是人工智能最初的目标,也是人工智能最终的目标。"

  主体提供了一种很好的问题求解风范,体现在基于主体的系统具有用传统方法难以获得的许多优点。主体提供了一种远程智能程序设计的方法。多主体系统放松了对集中式、规划、顺序控制的限制,提供了分散控制、应急和并行处理。并且,多主体系统可以降低软件或硬件的费用,提供更快速的问题求解。

  在人工智能研究中,主体概念的回归并不单单是因为人们认识到了应该把人工智能各个领域的研究成果,集成为一个具有智能行为概念的"人",更重要的原因是,人们认识到了人类智能的本质是一种社会性的智能。人们在研究人类智能行为中发现:人类绝大部分的活动都涉及多个人构成的社会团体,大型复杂问题的求解需要多个专业人员或组织协作完成。人最重要的和最多的智能是在由众多个体构成的社会中进行各种活动时体现出来的。"协作"、"竞争"、"谈判"等等是人类智能行为的主要表现形式。要对社会性的智能进行研究,作为"人"的对应物"主体",理所当然地成了人工智能研究的基本对象,而社会的对应物"多主体系统"也成为人工智能研究的基本对象。

  主体功能的一个重要的方面是用语义网统一语言(这种语言描述的是那些利用本体论中已有的规则和知识推导出来的合乎逻辑的结论)来交流"经验"。

  在过去五年中,成组智能软件agent和机器人的研究与发展促进了机器人世界杯足球赛 RoboCup的发展;反过来,RoboCup又促进了多agent和多机器人研究的发展。作为RoboCup的主要导者之-,美国卡内基梅隆大学的Manuela Vdoso做了题为"The challenge and advances in teams of autonomous agents in adversarial environments "的特邀报告。在报告中,她指出了分布式成组软件agent、具有外部视觉和计算机控制的小型机器人、全自主机器人和Sony四腿机器人带来的学术挑战,并且介绍了机器人设计、多agent学习、行为结构、感知、通讯、定位、对手行为建模和识别等领域的进展。

  中国科学院计算技术研究所智能信息处理开放实验室于2000年成功地研制了一个开发多主体系统的工具"多主体环境MAGE",它为网络计算环境下多主体系统的快速开发提供平台,为用户提供通过ADL(主体描述语言)脚本来自动生成主体的手段。用户可以通过灵活的用户界面配置(如选择协议)来产生具有特定性质的主体。这样,在具体的应用环境中,系统可以根据用户提供的特定信息自动配置主体,以适应与特定用户进行交互的需要。多主体系统一般工作在高度分布的异构环境下,另外,多主体系统越来越多地运行于Internet平台上并和基于Web的信息系统集成在一起,同时,有很多"遗留系统(1egacysystem)"需要加上一个主体外壳以便被多主体系统重用。MAGE用Java编写以保证主体的可移植性和异构环境下的互操作性,并支持Internet上的基于主体的分布式计算。遗留系统和面向某一具体领域的构件作为一个功能模块可以通过"功能模块--主体内核"接口接入主体,用主体描述语言ADL来定义成为一个主体,并以ACL为通讯语言与多主体系统中的其他主体一起协同工作"。

6.机器学习和数据挖掘

  人类从工业社会向知识社会演进时,政治经济中心正从"生产"转向"发现、发明和创?quot;。知识正在成为创新的核心,知识创新成为知识经济发展的显主要的动力源泉。知识经济对物质文明发展能够发挥巨大的推动作用,依靠无形资产的投入来实现可持续发展的,推动经济全球化发展。

Simon对学习的定义是:"如果一个系统能够通过执行某种过程而改进它的性能,这就是学习"。这个说法的要点是:学习是一个过程,其二,学习是对一个系统而言,其三,学习改变系统性能。过程、系统与改变性能是学习的三个要点。

  1984年Valiant提出了可学习理论,并将可学习性与计算复杂性联系在一起。1986年Blumer等人证明了VC维度与Valiant的"可学习理论"(PAC)之间的联系。事实上,对PAC的研究一直是理论性的、存在性的,Vapnik的这个研究却是构造性的,并将感知机这类研究包括在其中,他将这种模型称为支持向量机(Support Vector Machine,简称SVM),这意味着,这个理论将走向应用。另一方面,PAC本身提出的理论课题也派生出被称为"计算学习理论(Computational Learning Theory,简称COLT)"的学派,现已定期召开这方面的国际会议。

  Vapnik的统计机器学习理论最重要的考虑是将非线性函数映射到一个高维线性空间。求解核函数的二次规划所需要计算开销是相当大的,它需要反复计算一个n维的内积矩阵,其中n是样本个数,这需要大量的存储空间。

  1999年,我国计算机科学家张铃与张拔两教授独立于Vapnik在IEEE上发表了他们的一项研究,他们所使用的方法可以解决求二次规划时内积矩阵线数过大的问题。选择的非线性映射是球函数,且将样本向量映射到球面上,所有不同的样本将被映射到球面的不同位置。

  最近,何清、史忠植等基于Jordan曲线定理,提出了一种通用的SVM直接方法D-SVM,它是通过直接构造分类超曲向,根据样本点关于分类曲面的围绕数的奇偶性进行分类的一种全新分类判断算法,不需作升维变换,不需要考虑使用何种核函数,而直接地解决非线性分类问题。对数据分类应用的结果说明:D-SVM可以有效地解决非线性数据的分类问题,并能够提高分类效率和准确度。

  中国科学院计算技术研究所智能信息处理开放实验室于2000年研制成功的多策略数据挖掘平台MSMiner,提供决策树、支持向量机、粗糙集、模糊聚类、基于范例推理、统计方法、神经计算、可视化等多种数据采掘算法,支持特征抽取、分类、聚类、预测、关联规则发现、统计分析等数据采掘功能,并支持高层次的决策分析功能。该系统达到国际先进水平,具有广阔的应用前景。

1956 AI 会议合影照片

http://wenku.baidu.com/view/592f5bea998fcc22bcd10d08.html