人工智能、机器学习和深度学习有什么区别?

为了理解三者之间的关系,我们来看一张图:

如图:人工智能最大,首次引入这个概念;然后是机器学习,出现的时间稍微晚一点;最后,是深度学习。

从低潮到繁荣

自从计算机科学家在1956年的达特茅斯会议上证实了人工智能这个术语之后,人们对人工智能产生了许多荒诞的想法,研究人员也不遗余力地对其进行研究。在随后的几十年里,人工智能先是被誉为人类文明光明未来的关键,随后又因过于傲慢和异想天开而被抛弃。

但是这几年人工智能爆发式发展,尤其是2015之后。大部分原因归结于图形处理器(GPU)的广泛应用,使得并行处理更快、更便宜、更强大。此外,人工智能的发展还得益于几乎无限的存储空间和海量数据(大数据运动)的出现:图像、文本、交易数据、地图数据,应有尽有。

先从发展的历程说起人工智能的深度学习,机器学习,深度学习。

当人工智能的先驱们在达特茅斯相遇时,他们的梦想是通过当时新兴的计算机,建造一台相当于人类智能的复杂机器。这就是我们所说的“通用AI”,一个拥有人类五官(甚至更多)、推理能力和人类思维模式的神奇机器。在电影中,我们看到了无数这样的机器人,对人类友好的C-3PO,人类敌人的终结者。通用人工智能机器到目前为止只存在于电影和科幻小说中,原因很简单,我们还无法实现,至少到目前为止。

我们能做的是“狭义AI”:执行特定任务的水平相当于人类,甚至超越人类技术。现实中人工智能弱的例子很多。这些技术有人类智慧的一面。但是他们是怎么做到的呢?智力从何而来?这就涉及到下一个同心圆:机器学习。

机器学习

机器学习是实现人工智能的一种方法。机器学习的概念来自早期的人工智能研究者,已经发展起来的算法有决策树学习、归纳逻辑编程、强化学习和贝叶斯网络。简单来说,机器学习就是用算法分析数据,从中学习并做出推论或预测。不同于传统的手写软件使用特定的指令集,我们使用大量的数据和算法来“训练”机器,从而导致机器学习如何完成任务。

多年来,计算机视觉一直是机器学习的最佳领域之一,尽管它仍然需要大量的手动编码来完成任务。研究人员会手动编写一些分类器,比如边缘检测过滤器,帮助程序识别物体的边界;模式检测分类器,用于判断对象是否具有八个面;以及识别“S-T-O-P”的分类器。在这些手写分类器的基础上,他们开发理解图像的算法,学习如何判断是否有停车标志。

但由于计算机视觉和图像检测技术的滞后,往往容易出错。

深度学习

深度学习是实现机器学习的技术。早期的机器学习研究人员还开发了一种叫做人工神经网络的算法,但在发明后的几十年里,它一直默默无闻。神经网络的灵感来源于人脑:神经元之间的互联。但是人脑中的神经元可以和特定范围内的任何神经元连接,而人工神经网络中的数据传播要经过不同的层,传播方向也不一样。

比如你可以把一张图片剪成小块,然后输入到神经网络的第一层。在第一层进行初步计算,然后神经元将数据传输到第二层。第二层神经元执行任务,以此类推直到最后一层,然后输出最终结果。

每个神经元为其输入分配一个权重:神经元相对于其执行的任务的正确和错误程度。最终输出由这些权重决定。那么,让我们来看看上面提到的停车标志的例子。停车标志图像的属性被逐一细分,然后由神经元进行“检查”:形状、颜色、字符、标志大小以及它是否移动。神经网络的任务就是判断这是不是停车标志。它会给出一个“概率向量”,实际上是基于权重的猜测。在该示例中,系统可以将图像视为置信度为86%的停车标志、置信度为7%的限速标志等等。然后网络架构会告诉神经网络它的判断是否正确。

但问题是,即使是最基本的神经网络,也要消耗巨大的计算资源,所以在当时并不是一个可行的方法。然而,以多伦多大学的杰弗里·辛顿教授为首的一小群狂热的研究人员坚持采用这种方法,最终使超级计算机能够并行执行该算法,并证明了它的作用。如果再回到停止标志的例子,很有可能是神经网络受到训练的影响,会经常给出错误的答案。这说明需要持续的训练。它需要上千张图片,甚至上百万张图片来训练,直到把神经元输入的权重调整到非常准确,几乎每次都能给出正确答案。幸运的是,脸书用神经网络记住了你母亲的脸。吴恩达在谷歌2012实现了一个可以识别猫的神经网络。

如今,在某些情况下,深度学习训练的机器在图像识别方面的表现优于人类,包括找到猫和识别血液中的癌症迹象。谷歌的AlphaGo学会了围棋,并为游戏做了大量的训练:不断地和自己比赛。

摘要

人工智能的本质在于智能,而机器学习是部署支持人工智能的计算方法。简单来说,人工智能是科学,机器学习是让机器更聪明的算法,机器学习在某种程度上成就了人工智能。

迈克尔·科普兰(Michael Copeland),前《连线》编辑,现为硅谷知名投资机构安德森·霍洛维茨(Andreessen Horowitz)合伙人。