《机器学习(周志华)》笔记--绪论(2)--机器学习发展史与发展示状

5、机器学习发展史算法

一、机器学习发展阶段  数据库

  (1)基础奠基的热烈时期: 20世纪50年代初到60年代中叶编程

  (2)停滞不前的冷静时期: 20世纪60年代中叶到70年代末api

  (3)重拾但愿的复兴时期: 20世纪70年代末到80年代中叶网络

  (4)现代机器学习的成型时期: 20世纪90年初到21世纪初机器学习

  (5)大放光芒的蓬勃发展时期: 21世纪初至今学习

二、机器学习发展史重要人物测试

                         

三、神经元结构spa

                                         

  要让机器像人同样学习,首先要了解大脑的神经元结构。设计

  生物神经元由胞体(Soma)、树突(Dendrites),突触(Synapse)和轴突(Axon)等构成。

  胞体是神经元的代谢中心,胞体通常生长有许多树状突起,称为树突,它是神经元的主要接收器。胞体还延伸出一条管状纤维组织,称为轴突。树突是神经元的生物信号输入端,与其它的神经元相连;轴突是神经元的信号输出端,链接到其它神经元的树突上。

  生物神经元有两种状态:兴奋和抑制,平时生物神经元都处于抑制状态,轴突无输入,当生物神经元的树突输入信号大到必定程度,超过某个阈值时,生物神经元有抑制状态转为兴奋状态,同时轴突向其它生物神经元发出信号。轴突的做用主要是传导信息,传导的方向是由轴突的起点传向末端。一般,轴突的末端分出许多末梢,它们同后一个生物神经元的树突构成一种称为突触的机构。其中,前一个神经元的轴突末梢称为突触的前膜,后一个生物神经元的树突称为突触的后膜;前膜和后膜二者之间的窄缝空间称为突触的间隙,前一个生物神经元的信息由其轴突传到末梢以后,经过突触对后面各个神经元产生影响。

四、机器学习巨匠及算法发展历程

  (1)唐纳德·赫布(1904-1985)是加拿大著名生理心理学家。Hebb于1949年基于神经心理学的学习机制开启机器学习的第一步,此后被称为Hebb学习规则。

                           

  hebb是一种无监督学习规则。Hebb的理论认为在同一时间被激发的神经元间的联系会被强化。好比,铃声响时一个神经元被激发,在同一时间食物的出现会激发附近的另外一个神经元,那么这两个神经元间的联系就会强化,从而记住这两个事物之间存在着联系。相反,若是两个神经元老是不能同步激发,那么它们间的联系将会愈来愈弱。

  (2)1950年,阿兰·图灵创造了图灵测试来断定计算机是否智能。图灵测试认为,若是一台机器可以与人类展开对话(经过电传设备)而不能被辨别出其机器身份,那么称这台机器具备智能。这一简化使得图灵可以使人信服地说明“思考的机器”是可能的。

  (3)1952年,IBM 的 Arthur Samuel(被誉为“机器学习之父”)在《Some Studies in Machine Learning Using the Game of Checkers》的论文中,定义并解释了一个新词——机器学习(Machine Learning,ML)。将机器学习非正式定义为”在不直接针对问题进行编程的状况下,赋予计算机学习能力的一个研究领域”。他还设计了一款能够学习的西洋跳棋程序。它能经过观察棋子的走位来构建新的模型,并用其提升本身的下棋技巧。Samuel 和这个程序进行多场对弈后发现,随着时间的推移程序的棋艺变得愈来愈好。

  (4)1957年,罗森 布纳特(Rosenblatt)发明了感知机(或称感知器,Perceptron),是神经网络的雏形,同时也是支持向量机的基础,在当时引发了不小的轰动。感知机是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1和-1二值。感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。感知机学习旨在求出将训练数据进行线性划分的分离超平面。

                                                       

  (5)1960年,Widrow(维德罗)发明了Delta学习规则,它是一种简单的有监督学习算法,即现在的最小二乘问题,该算法根据神经元的实际输出与指望输出差异来调整链接权。该算法被应用到感知机中,而且获得了一个极好的线性分类器。

                                                                      

                                                                   

  (6)1969年,马文·明斯基(Minskey)将感知机推到最高顶峰。他提出了著名的XOR问题感知机数据线性不可分的情形,论证了感知器在相似XOR问题的线性不可分数据的无力,以致于其后十年被称为“冷静时期”,给感知机画上了一个逗号,以洪荒之力将如火如荼将的ML暂时封印了起来,Rosenblatt在这以后两年郁郁而终与此也不无关系。

                                                        

  (7)1970年,Seppo Linnainmaa(林纳因马)首次完整地叙述了自动链式求导方法(Automatic Differentiation,AD),是著名的反向传播算法(Back Propagation,BP)的雏形,但在当时并无引发重视。

                                                          

   (8)1974年,Werbos(伟博斯)首次提出把BP算法的思想应用到神经网络,也就是多层感知机(Multilayer Perception,MLP),MLP或者称为人工神经网络(Artificial Neural Network,ANN),是一个带有单隐层的神经网络。

                                                                       

  事实上,这个时期整个AI领域都遭遇了瓶颈。当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。要求程序对这个世界具备儿童水平的认识,研究者们很快发现这个要求过高了:1970年没人可以作出如此巨大的数据库,也没人知道一个程序怎样才能学到如此丰富的信息。

  感知机也成为单个神经元结构,神经元也成为单层感知机。

  (9)1980年,在美国的卡内基梅隆大学(CMU)召开了第一届机器学习国际研讨会,标志着机器学习研究已在全世界兴起。

  (10)1985-1986年,Rumelhart,Hinton等许多神经网络学者成功实现了实用的BP算法来训练神经网络,并在很长一段时间内BP都做为神经网络训练的专用算法。

                                        

   (11)1986年,昆兰提出了另外一个一样著名的ML算法:决策树算法(ID3),决策树做为一个预测模型,表明的是对象属性与对象值之间的一种映射关系,并且紧随其后涌现出了不少相似或者改进算法,如ID4,回归树,CART等。

  例:银行根据客户的房产状况,婚姻情况以及收入情况来评估客户偿还贷款的能力。

                                 

   (12)1995年,Yan LeCun提出了卷积神经网络(CNN),受生物视觉模型的启发,一般有至少两个非线性可训练的卷积层,两个非线性的固定卷积层,模拟视觉皮层中的V1和V2中的Simple cell和Complex cell,在手写字识别等小规模问题上,取得了当时世界最好结果,可是在大规模问题上表现不佳。(V1区负责边缘检测,V2区负责形状检测。局部链接,权值共享)

                                    

  (13)1995年,Vapnik和Cortes(瓦普尼克和科尔特斯)欲找到具备“最大间隔”的决策边界,提出了强大的支持向量机(SVM),主要思想是用一个分类超平面将样本分开从而达到分类效果,具备很强的理论论证和实验结果。

                                                               

   (14) 1997年,Freund和Schapire(弗洛恩德和夏皮雷)提出了另外一个坚实的ML模型AdaBoost(集成学习),该算法最大的特色在于组合弱分类器造成强分类器,能够形象地表述为:“三个臭皮匠胜过诸葛亮”,分类效果比其它强分类器更好。

                                       

   (15)2001年,随着核方法的提出,SVM大占上风,它的主要思想就是经过将低维数据映射到高维,从而实现线性可分。

                                       

  (16) 2006年,Hinton(辛顿)他的学生在《Nature》上发表了一篇文章,提出的深度置信网络(Deep Belief Network,DBN)开启了深度学习新纪元。

            

  深度学习主要算法:   

     (1)CNN:卷积神经网络

   (2)RNN:循环神经网络

   (3)ResNet:残差网络

 6、应用现状

  机器学习中比较活跃的四大应用领域:

    (1)数据挖掘,发现数据之间的关系

    (2)计算机视觉,像人同样看懂世界

    (3)天然语言处理,像人同样看懂文字

    (4)机器人决策,像人同样具备决策能力

相关文章
相关标签/搜索