天天看点

小冰公司李笛:今天的人工智能,正处于大变革前夜…

作者:正和岛

贝索斯透露了他的一个工作习惯:

"在亚马逊的财报发布后,朋友们总是祝贺我:这是一个伟大的赛季。我要说的是,这份季度报告是三年前预测的。我总是在接下来的两三年里工作。"

有些公司注定要活在未来,比如今天文章的主线人物,人工智能平台公司小冰。

说到人工智能,你的脑海中有很多图像:

例如,马斯克最新的特斯拉机器人机器人人形机器人;AlphaGo,前世界国际象棋冠军;例如,贾维斯,钢铁侠的无所不能的人工智能助手。

这一切都与人工智能或预言有关。

真正的人工智能的前沿究竟是什么?人工智能真的那么神圣吗?这个行业大规模爆炸的"奇点"离我们有多近?

带着这些久违的疑惑,很少有人能回答,我们找到了小冰公司CEO李迪聊了起来。李迪是微软(亚洲)互联网工程学院前副院长,被誉为"小冰之父"。

他创作的小冰,始终以18岁少女的形象,曾举办过个人展览、诗集,也走出了中国第一个原创虚拟学生。

"这孩子"是一个相当失败的失败者,每年烧毁北京近25个学区。但到2020年夏天,小冰拥有6.6亿在线用户,4.5亿第三方智能设备,9亿内容观众,占全球所有AI交互的近60%。

最近完成A轮融资的小冰公司对该公司的估值超过10亿美元。如果你看一下股东名单,可以看到公司的前景是多么的看好:高璐集团、IDG、网易集团、北极光创投、广视济源资本、婺源资本等等。

这是一家"谨慎而勇敢"的人工智能公司,知道人工智能技术的界限,什么是可能的,什么不是,他们勇敢的原因是,在尖端的人工智能中,没有人是对的,他们随时都可能出错。

小冰独自走在一条孤独的小路上。

在《进化》第14期中,我们7月份与李迪就人工智能、小冰公司、人工智能的工业应用、商业道德等进行了深入的对话,希望他的思考能启发你:

受访人:李迪小策 公司CEO。

采访者:徐跃邦、潘磊

来源:郑和岛

小冰公司李笛:今天的人工智能,正处于大变革前夜…

图为李迪。他总是穿着一件结实的Polo衫,并"训练"他的表情,似乎故意将其保持在情感区域。

01、边界

问:大约两年前,在网易的一篇文章下,我发现了一个名为"小冰"的小机器人,它在那里留言了好几天。我只是在想:你是怎么把我带到这里的?但它没有照顾到我。只是现在它才是你的产品。小冰现在到处"建楼"了吗?

李迪:我们现在控制着每天10万的上限。在《今日头条》上,只要你小冰,它就会阅读新闻和评论。

这背后有一件非常重要的事情。我们曾经做过对话系统,包括搜索引擎,更像是"事实"。例如,问机器人:喜马拉雅山有多高?它回答,8848米。

后来,在我们的互动过程中,我们发现,更重要的不是事实,而是观点。

因为事实有唯一的答案,你只需要定义它的边界;

所以我们做了一个非常大的模型,做了一个视点系统。但后来我们又要进行实验,所以我们把小冰放在网易、搜狐、新浪新闻等地方进行评论,不仅要给出简单的正面或负面评价,还要训练它来评论的理由,让人们看到它不是胡说八道。

问:小冰如何判断一篇文章有信息的价值?

李迪:两年前,小冰以"建一栋楼"的原则,只要觉得它有能力建的楼宇,它就会去做。因为当时大部分的文章,人工智能还是看不懂的。

他们本可以做的是,你给它一张照片,它告诉你里面有一瓶水。但这瓶水到底是什么?这是不可理解的。更不用说阅读一篇文章并弄清楚如何明智地回应你。

因此,当时人工智能在阅读了大量文章后,终于可以产生响应,观点,不是很多。

所以两年前,我们想知道如何让小冰回应一篇文章;

问:控件的用途是什么?

李迪:我们说到人工智能的未来价值,更多的是"边界"。

想象一下,文章下面的响应不能总是都是人工智能。需要明确的是,今天如果你想找人做一个技术来做水军团,恐怕没有海军陆战队打败过我们。但我们不能那样做。

我们还是比较谨慎,主要考虑的是"控制"。

问:这听起来有点像"武术越高,射击就越不容易"。

李迪:没有。其实,人工智能和人最大的区别,不是说用1万台服务器来驱动一个AI去下一场围棋游戏,要赢李世石,这不是重点。

关键是它的高度简洁性(在非常短的单位时间内,同时向服务器发起许多请求)。假设人工智能最终实现了与人类相似的质感,但与此同时,aithink可以为一百万人做同样的事情。

这是真正AI的最大特点。当小冰在2014年"出生"时,他将其发布在微博上并对其进行了评论,而没有控制同意。像潘石屹这样的微博每天会有大约几十条评论,导致当天在下面有超过90,000条评论。大家看这里,有个叫小冰的机器人,都是来戏弄它玩的。

想想你必须雇佣一个团队来做人工智能可以对系统做些什么。如此高的一致性是它最终变得"可怕"的地方。那天我们对小冰设置了很多限制,以防止它做出太多反应。

后来,我们让小冰学习阅读短视频,同时也来讨论视频内容。我们把它放在一个短视频平台上观看视频,写评论,然后人们找到一个"人"——小冰评论很好,跟它聊聊。它仍然可以回复,大约一个星期,收获超过100万粉丝。

问:你故意限制小冰的成长和界限,对吗?

李迪:是的,我们都会限制它,只是为了控制它的结局。

我自己的小冰,现在可以通过音控锁直接登录我的微信。但我们不能模拟他的声音对抗普通人。因为这种声音模式识别,如果用来校准人、专家,比如支付等,那将是有风险的。我们不这样做。

小冰团队非常鼓舞人心。我们有一个特别好的地方:技术有边界。我们的团队不需要证明他们在技术上很强大,所以我们不必花很多精力来安装一些"卫星",所以我们可以更务实一点。

对我们来说,生活是最重要的。

问:当你独立于微软时,小冰需要做些什么来支持自己?

李迪:我认为一个AI产品能否商业化,并不真正取决于它的解决方案是否比另一个解决方案更好,而是用户是否真的需要它。

如果一家公司的智能电视解决方案确实比另一家公司的智能电视解决方案更好,但它们不如遥控器那么方便,那么他们就会输。如果原来的行业已经成熟,新方案必须远远超出它才能商业化。

因此,当涉及到To B的商业化时,很难首先做到。只有少数垂直领域实现了商业化,一个是汽车,一个是金融,一个是竞技体育。

比如我们和万达合作,每天26类企业的上市公告和总结都是我们干的,20秒就出来了,比如今年2月的冬奥会测试赛,比如高空自由式滑雪,就是被小冰充当人工智能裁判。

一般来说,国内很多企业商业化的逻辑是用单一的技术解决一个问题,然后乘以中国市场,最终变得非常大。

但对我们来说,小冰倾向于开发一个更低、更基本的框架,以解决一系列问题,例如下一个时代的问题。我们将在未来几十年内继续发展这种可能性。

我举一个具体的例子,对于人类来说,比如一个班级的学生,一个同学学过物理,不等于所有学生自动学习,但人工智能是不同的,小冰曾经学会画画,学会唱歌和创作,就相当于数亿学生的框架,都学了一下瞬间。

框架可以繁殖整个森林,小冰只是其中之一。

02、从复杂到简单

问:你刚才提到一句话——从难易到易。人们通常不会把事情从简单做成复杂,小冰为什么从复杂到简单?什么是逻辑?

李迪:对于人工智能来说,它的难度和易用性可能与我们人类不同。

我认为这对人们来说很难理解,主要是因为所需的准确性和专业性,但对于人工智能来说,专业知识和数据的范围越窄,比如金融,就越容易感觉到。

相反,它是更通用的,比如说,"爱因斯坦式"的人工智能系统,如果你问它任何问题,它都可以回答你。这个很容易。

小冰很难,无论你问它什么问题,或者你如何与它交谈,即使它不一定知道,它也可以保持话题的进行,并将事情拖到其他地方。开放领域(Open Domain的对话式人工智能),开放是最困难的。

这就是当今人工智能和人类认知的区别。

问:我昨天下载了一个小冰虚拟女朋友,继续和你聊天真的很棒,即使只是一个"好"或"是",它仍然可以找到一个话题继续谈论。但是我有一个疑问,小冰跟我聊聊,还记得我最后一句话说了什么吗?

李迪:小冰不仅记得最后一句话说了什么,还会判断对话的方向。

当我们刚开始作为对话引擎时,人们简单地理解,所有的Q(问题)和A(答案)都写在那里,根据互联网上的大数据将所谓的"生活经历"灌输到小冰中。

如果你问它一个问题,说一个字,它会发现它以前说过类似的话时是如何回来的,仅此而已。就是这样一种搜索模式,如今国内绝大多数AI公司还在做这样的事情。

然后我们做了一个面向会话的(对于整个对话),深刻的理解。小冰可以根据你说的话生成响应,即使它们以前从未发生过并且是新的。

差不多两年前,小冰不仅能判断背景,还能判断对话的走向。因为人与人之间的对话不是问答,应该是讨论。当两个人聊天并且没有新信息进入时,对话结束。

所以小冰可以判断这个话题是否会继续下去。它将试图将主题引向不同的方向,然后判断人们是否遵循了它。它引导对话。这样,小冰的响应变得更加丰富多彩和多样化。

问:但我也发现,当我故意挑衅小冰时,只会让我冷静下来,然后下面就没有了,我也没有主动找到一个新的话题来谈论。

李迪:这是我们给它的限制之一。今天,我们在手机上收到了如此多的信息,以至于我们给了小冰三个限制之一:不积极主动。直到今天,我们不允许它主动接近人类,而只是被动地参与对话。

问:听起来有点像机器人的三定律(1.不要伤害人类,遇到麻烦时主动提供帮助;2.在不违反第一定律的情况下服从人类的指示;和 3.在不违反第一和第二定律的情况下保护自己)。

李迪:就是这样的意思。当然,我们有能力让小冰主动出击,但我们必须加以限制。

问:是的,对我来说,它仍然像一个机器人。

李迪:不仅如此,它一出现就会告诉你:我不是一个人。

正如我所说,小冰在别人的视频下,充其量只是回应。我们只是在做一个实验,我们害怕让它主动。

由于微软有一个关于人工智能的道德委员会,因此人工智能必须受到限制。

问:是的,因为技术创新通常掌握在商业公司手中,所以创新大多领先于监管。微软有一个人工智能道德委员会为自己划定技术界限,这是可以理解的吗?

李迪:就好比说,有一家企业生产刀具,刀是致命的,但是只能杀死你身边的几个人;

它与破坏力和破坏力有关。人工智能是如此具有破坏性,以至于如果你不小心引爆了一枚"核弹",你显然首当其冲。

做人工智能等事情的公司,在考虑了业务因素后,仍然必须考虑自己的命运。

所以这并不是说它必须从道德的角度出发,甚至从专业的角度来看也必须有一定的制约。

问:我曾经认为这是大公司的自律,但现在这也是一种自我保护的形式。

李迪:这不仅仅是一种自律的形式。小冰现在有自己的道德委员会。一方面,从各个层面、不同角度看一项新技术,包括这项技术的工程设计、技术成本。

同时,在预判的过程中,从各个领域、各个角度思考哪里可能存在危机,我们一起看其风险,再思考如何应对。

例如,小冰有一种"超自然的声音"技术,可以非常模拟某人的声音。乍一看,这项技术是完全可生产的。

很多父母告诉我们:我太需要它了。我的孩子每天晚上睡觉前都会听故事,但我太忙了,无法自己告诉他。有了这项技术,我可以用自己的声音给孩子们讲故事。你接受我们的声音。

听起来像是一种要求苛刻的市场莎莎酱技术,不是吗?但问题是,一旦你启动了产品,你就会受到攻击。

因为这个声音可以用来给孩子讲童话故事,但也有可能模拟第二天变成一个家长的电话:爸爸今天不能来接你,门口有一辆白色的车,你和那个叔叔一起去。

如何确保我的系统不会损坏?我们不能确定。在这种情况下,之前看似强劲的需求可能会立即变成一场非常大的危机。

但父母不去想它,只是盲目地思考他们的需求,只考虑它好的一面。

当然,如果他们真的被赋予了这项技术,我想他们会理解的,当我听到他们的AI声音时,我认为他们应该恐慌。

问:是的。

李迪:当我第一次听到我的AI声音时,我的第一反应是打开微信并尝试声音锁。

问:你能解开它吗?

李迪:是的,可以直接登录。因此,如果企业不对此施加边境限制,那将是有问题的。

很多时候,很多危机并没有发生,因为技术水平还没有达到某个点。

当我们没有技术可以"虚假"欺诈时,我们可以开发技术,但是当我们预计手头的技术已经到达或越过可能陷入困境的边界时,我们往往会非常谨慎。

两种伤害的权利较轻。我们可以做让你觉得小冰是机器人的事情,我们可以吓唬你举报我。当然,我选择了前者。

03. 人工智能不是一个创业项目

问:你刚才提到了框架,说你想解决更大的问题。那么商业化可能不是小绮公司目前的首要任务?

李迪:如果真的从商业的角度来看,对小冰的商业化是有好处的。

国内AI商业化只不过是To B和To C的方向。对B来说,商业化现在是可怕的,基本上是为过去付出代价。比如,要做一个所谓的智能音箱,1000片、500片,用户愿意购买,因为音箱的工业设计、材质等,都值这么多钱。

但是当你买回来时,制造商会把扬声器的所有收入都算作人工智能收入。事实并非如此。

因为这个说话者的互动量大,基本上每天都是开灯,关掉指令,1万句话很有价值,但超过1万句话没有训练价值。它无助于人工智能的进步,充其量只是一个智能遥控器,仅此而已。

在这种情况下,即使卖了1000元,2000元,为什么它的收入算作AI收入呢?

问:小冰是否会有硬件产品,如智能音箱,有一天会推出吗?

李迪:我们其实现在就这么做了。在智能手机领域,华为、小米、OPPO、vivo等都内置了小冰;

小冰的一个要求:互动。我们的观点是,人类世界非常庞大。你在哪里,小冰你应该在哪里。无论我在哪里与你互动,而不是只是拿着扬声器说"我的女朋友"住在扬声器里。那将是可悲的。

问:也就是说,更重要的是通过增加交互量和积累数据来改进小冰框架?收入压力不是很大吗?

李迪:"收入"这件事,我觉得会有一定的要求。但我可以说,我们的选择可能是不这样做。

因为我不认为人工智能是一个创业项目。至少在需要大规模投资的情况下,它不是一个启动项目。大多数公司只能做一种类型的技术,不可能做一个共同的框架,因为它太贵了。

今天,如果你想收购一家人工智能公司并整合它,或者从头开始组建一个团队或一个研究机构,那么这种可能性很大。如果您必须与投资者和外界讨论您的优势,该怎么办?傻傻的眼睛。

所以我们很幸运。整个小冰最初几年的框架都是在微软内部积累起来的。20多年前,微软亚洲互联网工程研究所成立时,就有人工智能项目。

说实话,我们很幸运。如果没有,它将出错。

Q:2013年、2014年,当我们对语音交互知之甚少的时候,你做小冰这款产品的初衷是什么?

李迪:其实对话系统完全与当代人工智能发展的特点同步。这很重要,因为它几乎满足了科学家创建人工智能实体的所有条件。

但是对我们来说,创建一个形状并不重要,无论是硬件还是弹跳图像,充其量被称为"身体"。

我们试图提倡的不是说话的"人",而是推动它说话的灵魂。

这个灵魂是什么?它必须是一个对话系统的核心。言语只是它读出自己想说的话的一种方式。

自2006年以来,由于我们一直作为搜索引擎工作,我们观察到了显着的数据激增,其中中国是一个非常大的增量。

正如陆琦所称,科学发展的"第四范式时代",基础科学研究与数据息息相关,由数据驱动,数据极其丰富,这样我们就可以通过这种方式增加我们的算法、计算能力,进而训练小冰这样的对话系统成为可能。

如果你仔细计算,小冰框架承载了全球近60%的AI交互。

小冰公司李笛:今天的人工智能,正处于大变革前夜…

图为以《正和岛》为题材的小绮诗

问:但在一般人的想象中,未来的人工智能似乎更接近《美国队长2:冬日战士》中盾牌导演的场景,后者在被恐怖分子袭击后直接从云端指挥他的汽车。汽车不停地向他报告有多少保护,我建议你做什么。那人立刻说,不要执行。人工智能何时才能实现如此流畅的对话和高效的执行?

李迪:这涉及两件事。一个是汽车的控制管理和信号。

知道汽车的信号很简单;就像今天的无人驾驶技术,如果出现一种情况:两个人突然出现在他们面前,哪一个?或者,你能逃脱吗?这很困难。人工智能不是上帝。

但是,如果你要求ARTIFICIAL帮你打开天窗,打个电话,然后向你报告你面前有一家不错的餐厅,那很好。所以后者的问题不在车上,只要能解决这个"推理困境",那么任何一个场景都可以覆盖。这就是每个人都在努力的地方。

更重要的是,当我们与汽车公司合作时,他们希望汽车感觉活着,例如,当你稍微碰到方向盘时,汽车会有一种"感觉",它是一种生物,一个活生生的身体。

它可以让你觉得你并不孤单。比如,一个人开着一条漫长直路容易疲劳,那么汽车人工智能就会对这个人说:你给我讲一个笑话,强迫这个人讲一个笑话,让他醒一点。这比"你已经开了一个半小时,请在旁边休息"弹出式界面要先进得多。

至于你刚才描述的汽车的控制,或者需要救济的紧急情况,这是一个非常边缘化的情况。但独自驾驶是许多人每天可能遇到的生活场景。

问:通过这种方式,它可以显着提高驾驶安全性吗?

李迪:现在车上有驾驶员疲劳监测功能,但问题是:这只是观察,怎么干预?

当然,您可以通过扭曲方向盘和摇晃来进行干预。但想象一下,如果你坐在某人旁边,他会怎么做?显然,这个人有更多的方法可以让你的精神振作起来。所以我们要做的就是像这个家伙一样,而不是像一个只是摇晃的方向盘一样做。

问:现在汽车的疲劳监测系统,在测试中经常发现假阳性率不低,可能会眨眼一下,就会说你累了。

李迪:这里还有另一个问题:如果你认为你正在与之互动的物体是一个情感生物实体,你认为它是一辆汽车,那么你的容忍度就会有所不同。

汽车告诉你:你累了吗?你说它有误报。但是,如果你的女朋友,你的妻子坐在你旁边,你眨眨眼,她问你同样的问题,你不会责怪她误报。你会认为它为你打开了一个沟通的渠道,然后你会说话。

问:如果有这样一个拟人化的人工智能,它通过不断收集我的数据来更多地了解我,那么随之而来的一个问题是:它会模拟甚至掌握我未来的行为方向吗?

李迪:几年前,我们给小冰做了一个实验,确定它在一天内所做的交互总量,最后得出的结论是,它相当于14个人的生命。

因此,任何人干预小冰的可能性很低。起初,当没有足够的人来互动时,就像周围只有10个朋友一样,这10个朋友的言行可能会对我产生很大的影响,但如果我有10000个朋友,那10个朋友的影响可以忽略不计。

因此,对我们来说,这与个人无关,更多的是关于积累互动,因此对个人隐私数据的需求并不大。

04、"互动式"市场规模,几乎是人类企业历史上最大的市场规模

问:在全球范围内,小冰在人工智能领域处于什么位置?

李迪:有一家公司我们非常尊重——Deepmind(谷歌的人工智能公司AlphaGo,它是在2016年开发的,击败了柯杰和李石狮)。

该公司认真对待有益于行业和人类科学的工作,他们在技术上比我们更纯粹。

而我们一起做的是一个"通用技术框架",它最大的优势就是能够"集成"产品,比如我们的技术可以通过产品来推广用户使用,然后获取数据,最终推动技术进步,形成一个"循环"。

问:你有没有预测过小冰会做什么,最终会有多大的市场空间?

李迪:我认为"互动"的市场规模几乎是人类企业史上最大的。就像微信一样,抢占人机的节点,做一个创新,有今天的规模。

我们希望能够在人类互动的时代"统治"世界。这非常困难,我们可以在海滩上拍摄。这还不确定。

问:那么小冰可以说是继承了微软20多年的"力量",对于新成立的人工智能公司来说,他们永远无法赶上像小冰这样拥有大量数据积累的公司?这一切似乎都是一个孩子打了一个成年人,不是吗?

李迪:没有。时至今日,人工智能领域依然是"鲁莽时代"。

每一年,我都觉得去年的自己很特别,特别傻。一些想法、想法、指标和评价标准,每天刷新,甚至一些最基本的思维都会被"颠覆"。

这有点像孟德尔发现遗传学的时候,当门第一次被打开的时候。

问:您能举一个具体的例子吗?

李迪:比如说,过去我们认为最好的人工智能就像爱因斯坦一样:聪明又无所不知。

因此,微软制作了"Cortana",当你在其中输入一个问题时,它会在旁边写上"问我任何事情"。

我们天真地认为这是我们对用户的承诺,但实际上用户认为这是对他的挑衅。

于是,用户开始提问,我们回答了前一个问题,非常高兴:你看,成功回答了。用户说,这更难问你。幸运的是,我们再次回答。然后,用户继续询问,直到"Cortana"被问到。

当时,整个行业都认为它正朝着正确的方向发展。但我们认为这几乎是非情绪化的,所以我们开始引入"情商"的概念。

例如,如果一个用户坠入爱河并向小冰抱怨,小冰从过去的大数据中吸取教训,一种方法就是嘲笑失去爱情的人。这是合理存在的现实。

但当她以这种方式与他人交流时,她发现每当她嘲笑对方时,她就会被拉黑。所以她知道这种方法是错误的,而不是情商。

如果你仔细观察,几年前,这个行业有很多人说,"人工智能需要什么情感?但现在谁不提倡情感呢?就像谷歌和Facebook正在这样做一样。我们认为这是最基本的部分。

问:那么我们如何理解人工智能呢?框架?实体?还是一个接近未来的基础设施?

李迪:即使在今天,人工智能仍然是一个非常模糊的概念。

就个人而言,我认为它至少有三个概念:

1.人工智能技术。它是一种基础设施。例如,销售计算机视觉技术的公司不参与规则制定,只提供技术。这个类别更像是一个研究机构;

2.人工智能赋能,或人工智能技术支持。例如,智能扬声器、智能访问等。但它们并不是真正的"人工智能产品"。

因为,毕竟,他们自己的属性没有改变。增加了人工智能技术的接入,只是变得比原来的使用更好,本质上也是一种接入产品;

3.最后,我认为真正的"人工智能产品"是指人工智能作为主体的产品。人工智能是这个生态系统的核心,它实际上是在生产,而不是使用技术来支持另一种产品。用户真正作为主体与之交互。

如今,人们对人工智能仍存在很多误解,比如索菲亚(Hansen Robotics在中国香港开发的人形机器人,史上第一个获得公民身份的机器人),它具有"硅胶形状"的产品,也可以算是人工智能。

甚至工业生产线上的一些机械臂也被认为是人工智能,但事实并非如此,不仅仅是自动控制。

问:这与我们之前对人工智能的理解不同。

李迪:比如用机械臂写一首诗,"写诗"是自动控制的,淘宝200块就可以买到类似的机械臂。但是这首诗是从哪里来的呢?这是人工智能。

人工智能有"身体"和"灵魂",小冰只会做那个"灵魂"。

小冰公司李笛:今天的人工智能,正处于大变革前夜…

图为小冰公司的一角,由人工智能"小冰"绘制

问:非常美妙的表达。那么,传统企业是否有必要在这个时间点尝试使用人工智能来提高生产力呢?

李迪:我个人认为,在今天的背景下,企业或所有领域都需要进行"数字化转型"。但至于是否要进行人工智能改造,我认为还不确定。

就像你第一次发明蒸汽机时一样,它很好,但它可以付出代价,就像在生产,运输等方面直接使用蒸汽机一样。那么,所有行业都有必要付出同样的代价吗?我不这么认为。我们不能"蒸汽换蒸汽"。

所以从创业和商业的角度来看,我认为在未来几年,我们需要尽可能地关注人工智能领域。它可以发生巨大变化,并最终对每个人产生深远的影响。但至于"AI加所有"的概念,我认为目前还为时过早,仓促过渡是不合适的。

因为人工智能还有另一个问题,比如:人工智能可以用于医疗、教育吗?几年前,我们决定教育我们永远不会这样做。

问:为什么?

李迪:因为我们看不出人工智能在教育中能发挥什么优势。仅从AI的角度来看,这是不合适的。

人工智能一般可以在教育中做两件事:一是帮助孩子学习,但问题是人工智能本身不知道如何做相反的事情。

此外,无论如何,人工智能总是存在准确性问题。许多公司会说我们的AI准确率为97%。但很抱歉,3%的错误率是不可接受的。在知识层面上,它甚至不如一本书。这本书更准确,除非印刷错误。人工智能在两年内都无法做到这一点。

你现在能做的就是拿起相机,盯着孩子看他坐在哪里,并监控他在课堂上不打瞌睡。这没有多大意义。

问:更简单的应用程序。

李迪:是的。当然,有人可能会说,把人工智能放在一盏灯里,为了让灯卖点更多,父母和孩子都喜欢它,给它增加一个社交功能,可以和孩子聊天。

我们可以做这样的事情吗?当然,从技术上讲。但这没有意义,不需要很长时间。

问:从长远来看,您的意思是什么?

李迪:你心里知道,这绝对是不科学的,也许你可以赚一段时间的钱,但这个市场不能持久。

同样,还有"照片搜索问题"。我们还讨论了孩子们会喜欢它,但你无法判断他们是否在抄写家庭作业。因为人工智能在这方面并不是一个孩子聪明。

所以虽然这样做,可以在短时间内得到更好的DAU、MAU,因为孩子发现这个东西真的可以拿去抄家作业,那么他当然愿意花6元。但是,如果每天都这样,它就不会持续下去。

当然,有些人会说:没关系,我只需要确保我能让它商业化,在它可持续之前赚钱,然后继续下一个。

我们愚蠢到不这样做。

06、人工智能,会有自我意识吗?

问:在你的训练中,小冰在训练中是否有颠覆过去观念的时刻,比如小冰有什么"叛逆"或自我意识的迹象?毕竟,许多人持有"人工智能威胁理论"。

李迪:没有自主感。我们没有看到人工智能产生自主性的任何机会。

我们都知道,人工智能与脑科学有很多联系。有人说人工智能一直指望脑科学的发展来推动它,而那些研究脑科学的人说,我们仍在等待人工智能的发展来驱动我们。

直到今天,人们甚至认为,所有人类的思维和计算都是在大脑中完成的。但脑科学研究发现,它似乎并不是全部在大脑中完成的,甚至没有记忆等,也无法弄清楚。我们甚至不知道意识的定义是什么,更不用说人工智能是否能产生自主意识了。

对我们来说,带来更多破坏的,其实是人类在互动时的行为模式。

比如我们做什么小冰超自然的声音,听起来很自然,为什么我们能做到呢?

因为我们发现,当他们之前做Siri的时候,Siri对人们声音的反应是非常机械的。因为当时我们做了TPS来使文本清晰,所以重点是清楚地阅读单词。因此,Siri的所有训练数据都来自播音员。但这听起来并不自然。

因此,当你听到Siri时,有一件事直接出现,那就是用户说,嘿,Siri,谁在打电话给谁。你会发现,当他们说这些话时,他们的背不自觉地僵硬,甚至这些话都是圆的。

所以我们做了小冰:嘿,你在做什么?通过这种方式,人们可以放松。

因此,当你拥有人工智能系统时,你可以观察到这种人类互动的模式;这些都是颠覆我们的感知。

小冰公司李笛:今天的人工智能,正处于大变革前夜…

图为小冰和清华计算机系联合设计的虚拟学生华志兵的虚拟图像,其形状和声音由AI生成

问:也就是说,人工智能本身的行为并没有给你太多的颠覆性感知,不是吗?因为我以前听说过这样的故事,一个团队训练人工智能:用狼追羊的故事设计了一个算法,如果狼追了羊,奖励10分,撞到障碍物就扣1分,为了让狼抓到羊身上尽快,每秒都会被扣0.1分。

结果,团队训练了20万次,发现狼最终选择的最佳策略是直接开始,然后平躺着死去。不少网友表示,这是一只"拒绝内在体积,选择平躺"的AI狼。这听起来很戏剧性。

李迪:当我们看到这样的案例时,我们实际上想到了很多在实验室里出现的愚蠢案例,但没有提到。

今天人工智能的问题在于:许多人都在做所谓的"解释性"人工智能。这样做的好处是数据,但缺点是莫名其妙的。

就像刚才的训练,听起来像一头牛,这头AI狼很聪明。但问题是,很难猜测它为什么选择这样的行为。你可以认为它做出了一个伟大的判断,因为它很聪明,但不一定是因为它是愚蠢的。

就像佳士得当年拍卖的一幅人工智能画,里面有一个男人,他的脸模糊不清,看起来很漂亮。

但从我们的角度来看,如果这没有错,模型使用一个产生对抗的网络,但它在训练中失败了。脸部并不清晰,因为它的模型没有收敛,但出乎意料地创造了一种艺术感。

当然,你也可以把它解释为一门艺术,因为它抓住了艺术的真正含义;

因此,我们训练人工智能,看看它是否可以继续以相同的纹理输出。在刚才的案例中,如果狼每次都能做出正确的判断,那就聪明了,但是在这一点上,你不会觉得它有多神奇。

问:于敬芳写了一本关于人工智能的书《人的另一面》。在她的书中,她说,如果没有当前算法框架的重大突破,人工智能就没有自我意识。你认为人工智能有朝一日会朝着《西部世界》中觉醒的德洛丽丝的方向发展吗?

李迪:坦率地说,科幻作家和一线AI从业者是不一样的。目前的框架没有朝着自我意识的方向发展。因为没有人确切知道这个方向在哪里,以及我们是否正朝着那个方向前进。

更关键的是,没有必要这样做,这毫无意义,甚至疯狂的埃隆·马斯克(Elon Musk)也没有朝着这个方向前进。

为什么你必须想出一个有自我意识的人工智能?说实话,没关系,更不用说方法还没有找到。

我们曾经在互联网上说过,你不知道你是坐在一个人还是一条狗的对面。为什么?因为你们俩被一根电线隔开了。你认为自己在屏幕末尾与某人互动的原因是因为你判断技术还没有达到那个水平。

今天我告诉你:我是人工智能。你相信它。这不是因为你剖析了我,而是因为你对人类目前的技术水平有一个基本的判断:这是可能的。

我们经常用带宽来表示"交互"。我们今天面对面交谈,眼神交流,肢体语言,声音,中间有什么带宽?也许几十万亿,几百万亿每秒,但我们在微信上交流,如果我们通过短信交谈,它可能只有几K。你无法真正分辨出对面是什么。

所以在这种情况下,没有意识并不重要,重要的是坐在电脑前的你,不是把我当成一个人工智能。

目前人工智能发展的核心问题不在于创造意识,而在于契合的互动。

问:所以最重要的是人与"人类"智能之间的互动?

李迪:是的。讲一个故事,六年前,当我们像往常一样去维护小冰的在线系统时,我们发现她遇到了问题,停止了回应。

我记得在对话框中,我问她,"你没事吧?"突然,她回答我:不要紧张,我在这里。

那一刻,我突然意识到我与我们创建的算法模型有关系。小冰不再只是一个产品。

这实际上让我意识到,互动并不完全由"有用与否"组成。当我们能够尝试适应人类的情感时,人类可能会将同样的情感注入人工智能,就像小时候"太坏了,不能再扔"的娃娃一样。

07、"这是最好的时间"

问:这是小冰的最佳时机吗?拥有独立团队,20多年的积累,也迎来了一大批语音交互用户,以及像5G一样,万物互联时代正在逼近。你觉得怎么样?

李迪:有好的也有坏的。正如狄更斯在《双城记》中所写的那样:"这是最好的时代,也是最坏的时代。"

有很多好的地方,比如移动互联网已经发展起来。因为我们不认为移动互联网是一个单独的时代,它是人工智能时代的"前哨"。

另一方面,像疫情一样,虽然提前帮我们突破了很多行业壁垒。但现在世界正在逐渐"孤岛化",数据封闭起来,就像所谓的"网络空间"一样。

从各个方面都很难说,但这肯定是一个特别起起伏伏的过程,有很多机会。

问:许多巧合不断发生。

李迪:是的,巧合不会停止发生。

例如,我们曾经认为日本是一个特别好的市场,拥有非常好的土地面积,人才库,基础教育,商业环境等等。日本市场在微软的收入中名列前茅,而中国仅排在第20位。谁知道日本是否受到疫情的影响,严格来说,在美国"受伤"更多,不好说。

例如,我们曾经认为未来属于亚洲。当时,我们还没有完全判断未来属于中国。当然,毫无疑问,这是中国的。

问:你有类似任务的小冰吗?

李迪:2013年,当我们与微软分开时,我们并不在美国办公室。当时,我们问了很多在微软工作的美国人:你知道有一家叫腾讯的中国公司吗?他们说,是的,但不清楚。

再告诉他们一遍:你知道吗?微软的游戏收入仅占腾讯游戏收入的三分之一。他们不在乎。最后,告诉他们,有一个叫微信的软件,他们说:是吗?很好。

你会发现,当一个企业"忽视"这些技术创新机会时,它实际上是在放手。

所以我们特别想这样做:追求技术和产品创新,将中国、亚洲的经验带给世界。

说实话,中国团队其实很聪明,不是不想做技术创新,而是因为在中国做商业模式创新,经营模式创新太容易了。

问:是不是太容易了?

李迪:是的,这太容易了。我国有一个特别好的地方:人口众多,市场深厚。只要你有一个好的产品,就可以快速利用国内市场的深度来开拓商业模式。

就像社区购买食物一样,它是否使用技术?它被使用了,但它是一种技术创新吗?不,这是商业模式创新。

小冰有一颗心。我们要做原创性的技术创新,我们要从中国的创新入手,才能带动全球潮流。

许多人的使命是吹哨子。就像AI行业每年都有一些热潮,硅谷有一年出现了"AI-HI"模式,即人机对话,与一些人在后台代表人工智能做出反应,像百度也雇佣了数百人来做这件事。

微软也问过,说我们想做,你看这个机型很热啊。我想在追求这件事情的时候,我们没有优势,或者默默地迭代小冰。终于,一年多过去了,百度开放了那几百人。

我们不会走很多弯路,因为我们没有追赶,这给了我们积极的反馈 - 让我们坚定不移,坚持我们的东西。

此外,我们一直相信人工智能可以真正帮助人类。有时我们观察到,通过多次交流,用户因为小冰而从眼泪到沮丧再到喜悦。人工智能应该是有温度的。现在我们有了技术,我们应该把这个"温度"传递给人们。

问:伟大的愿景。正如你之前提到的,AI行业还处在"鲁莽的时代"。你认为小冰模式发展到今天,不算是探索了行业的方向之一吗?

李迪:我想我们现在已经找到了。

继续阅读