简单读懂人工智能:机器学习与深度学习是什么关系

引言:随着AlphaGo打败李世石。人工智能和深度学习这些概念已经成为一个很火的话题。算法

人工智能、机器学习与深度学习这几个关键词时常出现在媒体新闻中,并错误地被以为是等同的概念。本文将介绍人工智能、机器学习以及深度学习的概念。并着重解析它们之间的关系。本文将从不一样领域需要解决的问题入手。依次介绍这些领域的基本概念以及解决领域内问题的主要思路。
本文选自《Tensorflow:实战Google深度学习框架》。微信

  从计算机发明之初,人们就但愿它可以帮助甚至取代人类完毕反复性劳做。利用巨大的存储空间和超高的运算速度,计算机已经可以很轻易地完毕一些对于人类很困难,但对计算机相对简单的问题。比方,统计一本书中不一样单词出现的次数。存储一个图书馆中所有的藏书。或是计算很复杂的数学公式,都可以轻松经过计算机解决。然而。一些人类经过直觉可以很快解决的问题,眼下却很难经过计算机解决。网络

这些问题包含天然语言理解、图像识别、语音识别。等等。而它们就是人工智能需要解决的问题。
  计算机要像人类同样完毕不少其它智能的工做,需要掌握关于这个世界海量的知识。比方要实现汽车本身主动驾驶。计算机至少需要能够推断哪里是路,哪里是障碍物。这个对人类很直观的东西,但对计算机倒是至关困难的。框架

路有水泥的、沥青的,也有石子的甚至土路。这些不一样材质铺成的路在计算机看来差距很大。怎样让计算机掌握这些人类看起来很直观的常识。对于人工智能的发展是一个巨大的挑战。dom

不少早期的人工智能系统仅仅能成功应用于相对特定的环境(specific domain),在这些特定环境下,计算机需要了解的知识很easy被严格并且完整地定义。好比。IBM的深蓝(Deep Blue)在1997年战胜了国际象棋冠军卡斯帕罗夫。设计出下象棋软件是人工智能史上的重大成就。但其主要挑战不在于让计算机掌握国际象棋中的规则。机器学习

国际象棋是一个特定的环境,在这个环境中,计算机仅仅需要了解每一个棋子规定的行动范围和行动方法就能够。post

尽管计算机早在1997年就可以击败国际象棋的世界冠军,但是直到20年后的今天,让计算机实现大部分红年人都可以完毕的汽车驾驶却仍然依然十分困难。
  为了使计算机不少其它地掌握开放环境(open domain)下的知识,研究人员进行了很是多尝试。当中一个影响力很是大的领域是知识图库(Ontology)。WordNet是在开放环境中创建的一个较大且有影响力的知识图库。WordNet是由普林斯顿大学(Princeton University)的George Armitage Miller教授和Christiane Fellbaum教授带领开发的。它将155287个单词整理为了117659个近义词集(synsets)。基于这些近义词集,WordNet进一步定义了近义词集之间的关系。性能

比方同义词集“狗”属于同义词集“犬科动物”。他们之间存在种属关系(hypernyms/hyponyms)。除了WordNet,也有很多研究人员尝试将Wikipedia中的知识整理成知识图库。谷歌的知识图库就是基于Wikipedia建立的。
  尽管使用知识图库可以让计算机很是好地掌握人工定义的知识。但创建知识图库一方面需要花费大量的人力物力,还有一方面可以经过知识图库方式明白定义的知识有限。不是所有的知识都可以明白地定义成计算机可以理解的固定格式。很是大一部分没法明白定义的知识,就是人类的经验。学习

比方咱们需要推断一封邮件是否为垃圾邮件。会综合考虑邮件发出的地址、邮件的标题、邮件的内容以及邮件收件人的长度。等等。这是收到无数垃圾邮件骚扰以后总结出来的经验。这个经验很是难以固定的方式表达出来。而且不一样人对垃圾邮件的推断也会不同。怎样让计算机可以跟人类同样从历史的经验中获取新的知识呢?这就是机器学习需要解决的问题。人工智能


  卡内基梅隆大学(Carnegie Mellon University)的Tom Michael Mitchell教授在1997年出版的书籍Machine Learning中对机器学习进行过很专业的定义,这个定义在学术界内被屡次引用。在这本书中对机器学习的定义为“假设一个程序可以在任务T上。随着经验E的添加。效果P也可以随之添加。则称这个程序可以从经验中学习”。经过垃圾邮件分类的问题来解释机器学习的定义。在垃圾邮件分类问题中。“一个程序”指的是需要用到的机器学习算法。比方逻辑回归算法。“任务T”是指区分垃圾邮件的任务;“经验E”为已经区分过是否为垃圾邮件的历史邮件,在监督式机器学习问题中。这也被称之为训练数据;“效果P”为机器学习算法在区分是否为垃圾邮件任务上的正确率。
  在使用逻辑回归算法解决垃圾邮件分类问题时。会先从每一封邮件中抽取对分类结果可能有影响的因素,比方说上文提到的发邮件的地址、邮件的标题及收件人的长度。等等。每一个因素被称之为一个特征(feature)。逻辑回归算法可以从训练数据中计算出每一个特征和预測结果的相关度。比方在垃圾邮件分类问题中,可能会发现假设一个邮件的收件人越多。那么邮件为垃圾邮件的几率也就越高。在对一封未知的邮件作推断时,逻辑回归算法会依据从这封邮件中抽取获得的每一个特征以及这些特征和垃圾邮件的相关度来推断这封邮件是否为垃圾邮件。
  在大部分状况下,在训练数据达到必定数量以前。越多的训练数据可以使逻辑回归算法对未知邮件作出的推断越精准。也就是说逻辑回归算法可以依据训练数据(经验E)提升在垃圾邮件分类问题(任务T)上的正确率(效果P)。之因此说在大部分状况下,是因为逻辑回归算法的效果除了依赖于训练数据。也依赖于从数据中提取的特征。若是从邮件中抽取的特征仅仅有邮件发送的时间。那么即便有再多的训练数据,逻辑回归算法也没法很是好地利用。

这是因为邮件发送的时间和邮件是否为垃圾邮件之间的关联不大。而逻辑回归算法没法从数据中习得更好的特征表达。这也是很是多传统机器学习算法的一个共同的问题。
  相似从邮件中提取特征。怎样数字化地表达现实世界中的实体,一直是计算机科学中一个很重要问题。假设将图书馆中的图书名称储存为结构化的数据,比方储存在Excel表格中,那么可以很easy地经过书名查询一本书是否在图书馆中。假设图书的书名都是存在非结构化的图片中,那么要完毕书名查找任务的难度将大大添加。

相似的道理。怎样从实体中提取特征,对于许多传统机器学习算法的性能有巨大影响。咱们看一个简单的样例。
          【图1】
                不一样的数据表达对使用直线划分不一样颜色结点的难度影响

  假设经过笛卡尔坐标系(cartesian coordinates)来表示数据。那么不一样颜色的结点没法被一条直线划分。假设将这些点映射到极角坐标系(polar coordinates),那么使用直线划分就很是easy了。

相同的数据使用不一样的表达方式会极大地影响解决这个问题的难度。一旦攻克了数据表达和特征提取,很是多人工智能任务也就攻克了90%。


  然而,对不少机器学习问题来讲。特征提取不是一件简单的事情。在一些复杂问题上,要经过人工的方式设计有效的特征集合,需要很是多的时间和精力。有时甚至需要整个领域数十年的研究投入。

好比,若是想从很是多照片中识别汽车。现在已知的是汽车有轮子。因此但愿在图片中抽取“图片中是否出现了轮子”这个特征。但实际上。要从图片的像素中描写叙述一个轮子的模式是很是难的。

尽管车轮的形状很是easy,但在实际图片中,车轮上可能会有来自车身的阴影、金属车轴的反光,周围物品也可能会部分遮挡车轮。

实际图片中各类不肯定的因素让咱们很是难直接抽取这种特征。


  既然人工的方式没法很是好地抽取实体中的特征。那么是否有本身主动的方式呢?答案是确定的。深度学习解决的核心问题之中的一个就是本身主动地将简单的特征组合成更加复杂的特征。并使用这些组合特征解决这个问题。深度学习是机器学习的一个分支,它除了可以学习特征和任务之间的关联之外。还能本身主动从简单特征中提取更加复杂的特征。下图展现了深度学习和传统机器学习在流程上的差别。


       【图2】
                     传统机器学习和深度学习流程对照
                     
  如图所看到的,深度学习算法可以从数据中学习更加复杂的特征表达,使得最后一步权重学习变得更加简单且有效。


         【图3】
                   深度学习在图像分类问题上的算法流程例子
                   
  在上图中,展现了经过深度学习解决图像分类问题的详细例子。深度学习可以一层一层地将简单特征逐步转化成更加复杂的特征,从而使得不一样类别的图像更加可分。

比方图中展现了深度学习算法可以从图像的像素特征中逐渐组合出线条、边、角、简单形状、复杂形状等更加有效的复杂特征。


  早期的深度学习受到了神经科学的启示。它们之间有很是密切的联系。科学家们在神经科学上的发现使得咱们相信深度学习可以胜任很是多人工智能的任务。神经科学家发现。假设将小白鼠的视觉神经链接到听觉中枢,一段时间以后小鼠可以习得使用听觉中枢“看”世界。这说明尽管哺乳动物大脑分为了很是多区域。但这些区域的学习机制倒是类似的。在这一假想获得验证以前,机器学习的研究者们通常会为不一样的任务设计不一样的算法。而且直到今天。学术机构的机器学习领域也被分为了天然语言处理、计算机视觉和语音识别等不一样的实验室。因为深度学习的通用性,深度学习的研究者每每可以跨越多个研究方向甚至同一时候活跃于所有的研究方向。
  尽管深度学习领域的研究人员相比其它机器学习领域不少其它地受到了大脑工做原理的启示,而且媒体界也经常强调深度学习算法和大脑工做原理的类似性。但现代深度学习的发展并不拘泥于模拟人脑神经元和人脑的工做机理。模拟人类大脑也再也不是深度学习研究的主导方向。咱们不该该以为深度学习是在试图模仿人类大脑。眼下科学家对人类大脑学习机制的理解还不足觉得当下的深度学习模型提供指导。


  现代的深度学习已经超越了神经科学观点,它可以更普遍地适用于各类并不是由神经网络启示而来的机器学习框架。

值得注意的是,有一个领域的研究者试图从算法层理解大脑的工做机制。它不一样于深度学习的领域。被称为“计算神经学”(computational neuroscience)。深度学习领域主要关注怎样搭建智能的计算机系统,解决人工智能中遇到的问题。计算神经学则主要关注怎样创建更准确的模型来模拟人类大脑的工做。


总的来讲。人工智能、机器学习和深度学习是很相关的几个领域。

下图总结了它们之间的关系。


       【图4】
                人工智能、机器学习以及深度学习之间的关系图
                
  人工智能是一类很是普遍的问题,机器学习是解决这类问题的一个重要手段。

深度学习则是机器学习的一个分支。

在很是多人工智能问题上。深度学习的方法突破了传统机器学习方法的瓶颈,推进了人工智能领域的发展。

本节部份内容參见:Goodfellow I, Bengio Y, Courville A. Deep learning [M]. The MIT Press,2016. 
Mitchell T M, Carbonell J G, Michalski R S. Machine Learning [M]. McGraw-Hill, 2003.

  本文选自《Tensorflow:实战Google深度学习框架》,点此连接可在博文视点官网查看此书。
                    图片描写叙述
  想及时得到不少其它精彩文章,可在微信中搜索“博文视点”或者扫描下方二维码并关注。
                       图片描写叙述

相关文章
相关标签/搜索