做为近几年的一大热词,人工智能一直是科技圈不可忽视的一大风口。随着智能硬件的迭代,智能家居产品逐步走进千家万户,语音识别、图像识别等AI相关技术也经历了阶梯式发展。如何看待人工智能的本质?人工智能的飞速发展又经历了哪些历程?本文就从技术角度为你们介绍人工智能领域常常提到的几大概念与AI发展简史。算法
1、人工智能相关概念数据库
一、人工智能(Artifical Intelligence, AI):就是让机器像人同样的智能、会思考,
是机器学习、深度学习在实践中的应用。人工智能更适合理解为一个产业,泛指生产更加智能的软件和硬件,人工智能实现的方法就是机器学习。网络
二、数据挖掘:数据挖掘是从大量数据中提取出有效的、新颖的、有潜在做用的、可信的、并能最终被人理解模式(pattern)的非平凡的处理过程。框架
数据挖掘利用了统计、机器学习、数据库等技术用于解决问题;数据挖掘不只仅是统计分析,而是统计分析方法学的延伸和扩展
,不少的挖掘算法来源于统计学。机器学习
三、机器学习:专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,机器学习是对能经过经验自动改进的计算机算法的研究。分布式
机器学习是创建在数据挖掘技术之上发展而来,只是数据挖掘领域中的一个新兴分支与细分领域,只不过基于大数据技术让其逐渐成为了当下显学和主流。它是人工智能的核心,是使计算机具备智能的根本途径,其应用遍布人工智能的各个领域。函数
四、深度学习(Deep Learning):是相对浅层学习而言的,是机器学习研究中的一个新的领域,其动机在于创建、模拟人脑进行分析学习的神经网络。它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习的概念源于人工神经网络的研究。深度学习经过组合低层特征造成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。性能
到了当下,通过深度学习技术训练的机器在识别图像方面已不逊于人类,好比识别猫、识别血液中的癌细胞特征、识别MRI扫描图片中的肿瘤。在谷歌AlphaGo学习围棋等等领域,AI已经超越了人类目前水平的极限。学习
为了方便你们理解,咱们将上文提到的四个概念的关系用下图表示。须要注意的是,图示展示的只是一种大体的从属关系,其中数据挖掘与人工智能并非彻底的包含关系。大数据
2、人工智能发展历史
(图片来源于网络)
由图能够明显看出Deep Learning从06年崛起以前经历了两个低谷,这两个低谷也将神经网络的发展分为了几个不一样的阶段,下面就分别讲述这几个阶段。
一、 第一代神经网络(1958-1969)
最先的神经网络的思想起源于1943年的MP人工神经元模型,当时是但愿可以用计算机来模拟人的神经元反应的过程,该模型将神经元简化为了三个过程:输入信号线性加权,求和,非线性激活(阈值法)。以下图所示:
1958年Rosenblatt发明的感知器(perceptron)算法。该算法使用MP模型对输入的多维数据进行二分类,且可以使用梯度降低法从训练样本中自动学习更新权值。1962年,该方法被证实为可以收敛,理论与实践效果引发第一次神经网络的浪潮。
一、 第二代神经网络(1986~1998)
第一次打破非线性诅咒的当属现代Deep Learning大牛Hinton,其在1986年发明了适用于多层感知器(MLP)的BP算法,并采用Sigmoid进行非线性映射,有效解决了非线性分类和学习的问题。该方法引发了神经网络的第二次热潮。
1989年,Robert Hecht-Nielsen证实了MLP的万能逼近定理,即对于任何闭区间内的一个连续函数f,均可以用含有一个隐含层的BP网络来逼近该定理的发现极大的鼓舞了神经网络的研究人员。
同年,LeCun发明了卷积神经网络-LeNet,并将其用于数字识别,且取得了较好的成绩,不过当时并无引发足够的注意。
值得强调的是在1989年之后因为没有特别突出的方法被提出,且神经网络(NN)一直缺乏相应的严格的数学理论支持,神经网络的热潮渐渐冷淡下去。
1997年,LSTM模型被发明,尽管该模型在序列建模上的特性很是突出,但因为正处于NN的下坡期,也没有引发足够的重视。
三、统计学建模的春天(1986~2006)
1986年,决策树方法被提出,很快ID3,ID4,CART等改进的决策树方法相继出现。
1995年,线性SVM被统计学家Vapnik提出。该方法的特色有两个:由很是完美的数学理论推导而来(统计学与凸优化等),符合人的直观感觉(最大间隔)。不过,最重要的仍是该方法在线性分类的问题上取得了当时最好的成绩。
1997年,AdaBoost被提出,该方法是PAC(Probably Approximately Correct)理论在机器学习实践上的表明,也催生了集成方法这一类。该方法经过一系列的弱分类器集成,达到强分类器的效果。
2000年,KernelSVM被提出,核化的SVM经过一种巧妙的方式将原空间线性不可分的问题,经过Kernel映射成高维空间的线性可分问题,成功解决了非线性分类的问题,且分类效果很是好。至此也更加终结了NN时代。
2001年,随机森林被提出,这是集成方法的另外一表明,该方法的理论扎实,比AdaBoost更好的抑制过拟合问题,实际效果也很是不错。
2001年,一种新的统一框架-图模型被提出,该方法试图统一机器学习混乱的方法,如朴素贝叶斯,SVM,隐马尔可夫模型等,为各类学习方法提供一个统一的描述框架。
四、快速发展期(2006~2012)
2006年,深度学习(DL)元年。是年,Hinton提出了深层网络训练中梯度消失问题的解决方案:无监督预训练对权值进行初始化+有监督训练微调。其主要思想是先经过自学习的方法学习到训练数据的结构(自动编码器),而后在该结构上进行有监督训练微调。可是因为没有特别有效的实验验证,该论文并无引发重视。
2011年,ReLU激活函数被提出,该激活函数可以有效的抑制梯度消失问题。
2011年,微软首次将DL应用在语音识别上,取得了重大突破。
五、爆发期(2012~至今)
2012年,Hinton课题组为了证实深度学习的潜力,首次参加ImageNet图像识别比赛,其经过构建的CNN网络AlexNet一举夺得冠军,且碾压第二名(SVM方法)的分类性能。也正是因为该比赛,CNN吸引到了众多研究者的注意。
AlexNet的创新点:
(1)首次采用ReLU激活函数,极大增大收敛速度且从根本上解决了梯度消失问题;
(2)因为ReLU方法能够很好抑制梯度消失问题,AlexNet抛弃了“预训练+微调”的方法,彻底采用有监督训练。也正由于如此,DL的主流学习方法也所以变为了纯粹的有监督学习;
(3)扩展了LeNet5结构,添加Dropout层减少过拟合,LRN层加强泛化能力/减少过拟合;
(4)首次采用GPU对计算进行加速。
结语:做为21世纪最具影响力的技术之一,人工智能不只仅在下围棋、数据挖掘这些人类本来不擅长的方面将咱们战胜,还在图像识别、语音识别等等领域向咱们发起挑战。现在,人工智能也在与物联网、量子计算、云计算等等诸多技术互相融合、进化,以超乎咱们想象的速度发展着。而这一切的发生与演变,只用了几十年的时间……