深度学习——0 神经网络初探

1.历史渊源

深度学习(deep learning)和神经网络(netural networks)这几年随着“阿尔法狗”以及ImageNet挑战赛的兴起而被炒得火热,然鹅这俩大兄弟已经不是生面孔了,而能够算是“老家伙了”。早在1943年,McCulloch and Pitts就设计了一个简单的神经元模型。之因此叫作神经元模型,是由于它的工做原理是模仿人类的大脑神经元。人类大脑中约有1000亿个神经元,互相之间的链接突触可达100万亿个。神经元有两种形态——兴奋或者抑制,兴奋就会把电信号传递给下一个神经元。经过数以亿计的神经元互相做用,最终使咱们人类拥有了高级智慧。而神经元模型工做原理很简单,它也有两种状态——兴奋(标1)跟抑制(标0)。而之因此近几年深度学习跟神经网络开始普遍进入人们的视野是由于深度学习须要强大的计算能力跟足够的数据的支撑,之前因为技术跟数据的限制,因此没能发扬光大,因此科技是第一辈子产力算法

                                                                   

2.工做原理

如上图中所示,只有一层一个神经元,多个输入,咱们能够经过y=wx+b求和获得一个数值,而后经过激活函数(图上是sigmoid函数;激活函数做用是把数值压缩在必定范围内,同时权重或者偏移的细小改变可以轻微影响到网络输出,这样能够更好的训练权重跟偏移)把该数值转为0-1以前的一个数,咱们能够定义大于0.5为兴奋,小于0.5为抑制,这样就模拟了一个神经单元的工做过程。网络

固然,神经网络是由多个神经单元、多层神经结构构成的(下图是一个简单的前馈 神经网络),根据神经网络定义的不一样能够分为卷积神经网络、循环神经网络以及各类变体等等,可是思想是不变的。函数

3.算法核心

深度学习一个强大之处是不用人工调整大量的参数,由于不少参数是模型本身根据大量的数据主动学习的!学习

主动学习的法宝就是偏差逆传播(BackPropagation,简称BP),经过损失函数(Loss Function,用于描述模型输出值与真实值的差别)数值最小的原则,对各层输入向量求偏导,不断更新权重跟偏移的数值,最终求得参数的最优解——即模型输出很接近与真实输出。固然,如何更有效的学习,如何防止过拟合与欠拟合以及局部最优状况的出现也是一个很重要的问题,下次再详细讨论。设计

相关文章
相关标签/搜索