简单读懂人工智能:机器学习与深度学习是什么关系

引言:随着AlphaGo打败李世石,人工智能和深度学习这些概念已经成为一个很是火的话题。人工智能、机器学习与深度学习这几个关键词时常出如今媒体新闻中,并错误地被认为是等同的概念。本文将介绍人工智能、机器学习以及深度学习的概念,并着重解析它们之间的关系。本文将从不一样领域须要解决的问题入手,依次介绍这些领域的基本概念以及解决领域内问题的主要思路。
本文选自《Tensorflow:实战Google深度学习框架》。算法

  从计算机发明之初,人们就但愿它可以帮助甚至代替人类完成重复性劳做。利用巨大的存储空间和超高的运算速度,计算机已经能够很是轻易地完成一些对于人类很是困难,但对计算机相对简单的问题。好比,统计一本书中不一样单词出现的次数,存储一个图书馆中全部的藏书,或是计算很是复杂的数学公式,均可以轻松经过计算机解决。然而,一些人类经过直觉能够很快解决的问题,目前却很难经过计算机解决。这些问题包括天然语言理解、图像识别、语音识别,等等。而它们就是人工智能须要解决的问题。
  计算机要像人类同样完成更多智能的工做,须要掌握关于这个世界海量的知识。好比要实现汽车自动驾驶,计算机至少须要可以判断哪里是路,哪里是障碍物。这个对人类很是直观的东西,但对计算机倒是至关困难的。路有水泥的、沥青的,也有石子的甚至土路。这些不一样材质铺成的路在计算机看来差距很是大。如何让计算机掌握这些人类看起来很是直观的常识,对于人工智能的发展是一个巨大的挑战。不少早期的人工智能系统只能成功应用于相对特定的环境(specific domain),在这些特定环境下,计算机须要了解的知识很容易被严格而且完整地定义。例如,IBM的深蓝(Deep Blue)在1997年战胜了国际象棋冠军卡斯帕罗夫。设计出下象棋软件是人工智能史上的重大成就,但其主要挑战不在于让计算机掌握国际象棋中的规则。国际象棋是一个特定的环境,在这个环境中,计算机只须要了解每个棋子规定的行动范围和行动方法便可。虽然计算机早在1997年就能够击败国际象棋的世界冠军,可是直到20年后的今天,让计算机实现大部分红年人均可以完成的汽车驾驶却仍然依旧十分困难。
  为了使计算机更多地掌握开放环境(open domain)下的知识,研究人员进行了不少尝试。其中一个影响力很是大的领域是知识图库(Ontology)。WordNet是在开放环境中创建的一个较大且有影响力的知识图库。WordNet是由普林斯顿大学(Princeton University)的George Armitage Miller教授和Christiane Fellbaum教授带领开发的,它将155287个单词整理为了117659个近义词集(synsets)。基于这些近义词集,WordNet进一步定义了近义词集之间的关系。好比同义词集“狗”属于同义词集“犬科动物”,他们之间存在种属关系(hypernyms/hyponyms)。除了WordNet,也有很多研究人员尝试将Wikipedia中的知识整理成知识图库。谷歌的知识图库就是基于Wikipedia建立的。
  虽然使用知识图库可让计算机很好地掌握人工定义的知识,但创建知识图库一方面须要花费大量的人力物力,另外一方面能够经过知识图库方式明肯定义的知识有限,不是全部的知识均可以明确地定义成计算机能够理解的固定格式。很大一部分没法明肯定义的知识,就是人类的经验。好比咱们须要判断一封邮件是否为垃圾邮件,会综合考虑邮件发出的地址、邮件的标题、邮件的内容以及邮件收件人的长度,等等。这是收到无数垃圾邮件骚扰以后总结出来的经验。这个经验很难以固定的方式表达出来,并且不一样人对垃圾邮件的判断也会不同。如何让计算机能够跟人类同样从历史的经验中获取新的知识呢?这就是机器学习须要解决的问题。
  卡内基梅隆大学(Carnegie Mellon University)的Tom Michael Mitchell教授在1997年出版的书籍Machine Learning中对机器学习进行过很是专业的定义,这个定义在学术界内被屡次引用。在这本书中对机器学习的定义为“若是一个程序能够在任务T上,随着经验E的增长,效果P也能够随之增长,则称这个程序能够从经验中学习”。经过垃圾邮件分类的问题来解释机器学习的定义。在垃圾邮件分类问题中,“一个程序”指的是须要用到的机器学习算法,好比逻辑回归算法;“任务T”是指区分垃圾邮件的任务;“经验E”为已经区分过是否为垃圾邮件的历史邮件,在监督式机器学习问题中,这也被称之为训练数据;“效果P”为机器学习算法在区分是否为垃圾邮件任务上的正确率。
  在使用逻辑回归算法解决垃圾邮件分类问题时,会先从每一封邮件中抽取对分类结果可能有影响的因素,好比说上文提到的发邮件的地址、邮件的标题及收件人的长度,等等。每个因素被称之为一个特征(feature)。逻辑回归算法能够从训练数据中计算出每一个特征和预测结果的相关度。好比在垃圾邮件分类问题中,可能会发现若是一个邮件的收件人越多,那么邮件为垃圾邮件的几率也就越高。在对一封未知的邮件作判断时,逻辑回归算法会根据从这封邮件中抽取获得的每个特征以及这些特征和垃圾邮件的相关度来判断这封邮件是否为垃圾邮件。
  在大部分状况下,在训练数据达到必定数量以前,越多的训练数据可使逻辑回归算法对未知邮件作出的判断越精准。也就是说逻辑回归算法能够根据训练数据(经验E)提升在垃圾邮件分类问题(任务T)上的正确率(效果P)。之因此说在大部分状况下,是由于逻辑回归算法的效果除了依赖于训练数据,也依赖于从数据中提取的特征。假设从邮件中抽取的特征只有邮件发送的时间,那么即便有再多的训练数据,逻辑回归算法也没法很好地利用。这是由于邮件发送的时间和邮件是否为垃圾邮件之间的关联不大,而逻辑回归算法没法从数据中习得更好的特征表达。这也是不少传统机器学习算法的一个共同的问题。
  相似从邮件中提取特征,如何数字化地表达现实世界中的实体,一直是计算机科学中一个很是重要问题。若是将图书馆中的图书名称储存为结构化的数据,好比储存在Excel表格中,那么能够很是容易地经过书名查询一本书是否在图书馆中。若是图书的书名都是存在非结构化的图片中,那么要完成书名查找任务的难度将大大增长。相似的道理,如何从实体中提取特征,对于不少传统机器学习算法的性能有巨大影响。咱们看一个简单的例子。
          【图1】
                不一样的数据表达对使用直线划分不一样颜色结点的难度影响网络

  若是经过笛卡尔坐标系(cartesian coordinates)来表示数据,那么不一样颜色的结点没法被一条直线划分。若是将这些点映射到极角坐标系(polar coordinates),那么使用直线划分就很容易了。一样的数据使用不一样的表达方式会极大地影响解决问题的难度。一旦解决了数据表达和特征提取,不少人工智能任务也就解决了90%。
  然而,对许多机器学习问题来讲,特征提取不是一件简单的事情。在一些复杂问题上,要经过人工的方式设计有效的特征集合,须要不少的时间和精力,有时甚至须要整个领域数十年的研究投入。例如,假设想从不少照片中识别汽车。如今已知的是汽车有轮子,因此但愿在图片中抽取“图片中是否出现了轮子”这个特征。但实际上,要从图片的像素中描述一个轮子的模式是很是难的。虽然车轮的形状很简单,但在实际图片中,车轮上可能会有来自车身的阴影、金属车轴的反光,周围物品也可能会部分遮挡车轮。实际图片中各类不肯定的因素让咱们很难直接抽取这样的特征。
  既然人工的方式没法很好地抽取实体中的特征,那么是否有自动的方式呢?答案是确定的。深度学习解决的核心问题之一就是自动地将简单的特征组合成更加复杂的特征,并使用这些组合特征解决问题。深度学习是机器学习的一个分支,它除了能够学习特征和任务之间的关联之外,还能自动从简单特征中提取更加复杂的特征。下图展现了深度学习和传统机器学习在流程上的差别。
       【图2】
                     传统机器学习和深度学习流程对比
                     
  如图所示,深度学习算法能够从数据中学习更加复杂的特征表达,使得最后一步权重学习变得更加简单且有效。
         【图3】
                   深度学习在图像分类问题上的算法流程样例
                   
  在上图中,展现了经过深度学习解决图像分类问题的具体样例。深度学习能够一层一层地将简单特征逐步转化成更加复杂的特征,从而使得不一样类别的图像更加可分。好比图中展现了深度学习算法能够从图像的像素特征中逐渐组合出线条、边、角、简单形状、复杂形状等更加有效的复杂特征。
  早期的深度学习受到了神经科学的启发,它们之间有很是密切的联系。科学家们在神经科学上的发现使得咱们相信深度学习能够胜任不少人工智能的任务。神经科学家发现,若是将小白鼠的视觉神经链接到听觉中枢,一段时间以后小鼠能够习得使用听觉中枢“看”世界。这说明虽然哺乳动物大脑分为了不少区域,但这些区域的学习机制倒是类似的。在这一假想获得验证以前,机器学习的研究者们一般会为不一样的任务设计不一样的算法。并且直到今天,学术机构的机器学习领域也被分为了天然语言处理、计算机视觉和语音识别等不一样的实验室。由于深度学习的通用性,深度学习的研究者每每能够跨越多个研究方向甚至同时活跃于全部的研究方向。
  虽然深度学习领域的研究人员相比其余机器学习领域更多地受到了大脑工做原理的启发,并且媒体界也常常强调深度学习算法和大脑工做原理的类似性,但现代深度学习的发展并不拘泥于模拟人脑神经元和人脑的工做机理。模拟人类大脑也再也不是深度学习研究的主导方向。咱们不该该认为深度学习是在试图模仿人类大脑。目前科学家对人类大脑学习机制的理解还不足觉得当下的深度学习模型提供指导。
  现代的深度学习已经超越了神经科学观点,它能够更普遍地适用于各类并非由神经网络启发而来的机器学习框架。值得注意的是,有一个领域的研究者试图从算法层理解大脑的工做机制,它不一样于深度学习的领域,被称为“计算神经学”(computational neuroscience)。深度学习领域主要关注如何搭建智能的计算机系统,解决人工智能中遇到的问题。计算神经学则主要关注如何创建更准确的模型来模拟人类大脑的工做。框架

全文阅读:http://click.aliyun.com/m/14460/  dom

相关文章
相关标签/搜索