猪猪的机器学习笔记(十)人工神经网络

人工神经网络

做者:樱花猪算法

 

摘要:编程

本文为七月算法(julyedu.com12月机器学习第十次次课在线笔记。人工神经网络在支持图像处理、文本、语言以及序列多种类型的数据处理时都用用到。本次课程更加侧重于实践,把抽象的人工神经网络用程序展示出来,课上讲述了编程使用的工具和方法,对于往后实验有很是重要的帮助。网络

 

引言:框架

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象,创建某种简单模型,按不一样的链接方式组成不一样的网络。在工程与学术界也常直接简称为神经网络或类神经网络。本次课程讨论了神经网络的基本框架、很是热门的BP算法以及实际编程的要点。机器学习

 

预备知识:函数

几率论;梯度降低法工具

 

人工神经网络学习

前向全链接网路优化

人工神经网络求法编码

 

1、人工神经网络

    人工神经网络基础形态是前向全链接网络,同时拥有多种变形,这些变形构成了深度学习的主要内容。

卷积网路(CNN):属于部分链接网络,是深度学习结构核心之一

递归网络(RNN):是一种更为复杂的网络结构,可以很好的应对序列数据。

   自编码器(Auto Encoder),一种数据特征学习,相似于PCA的做用

 

2、前向全链接网路(Full connected Forward Network)

一、基础神经单元

神经元是构成神经网络的基本单元,一个神经元的组成包括:

输入:n 维向量x;

线性加权:

激活函数:,求非线性,容易求导;

输出标量:

 

二、经常使用激活函数:

a、sigmoid函数。输出值域不对称,两头过于平坦。

b、tanh函数。两头过于平坦

C、Rectified linear unit

   收敛速度比sigmoid和tanh快,计算简单高效。是目前最普遍使用的激活函数,特别应用在CNN。

 

三、丛神经元到网络

输入错,输入向量;

中间层(隐含层)

输出层,输出向量,用于预测、分类以及回归。

 

3、人工神经网络求法

一、损失函数(Loss Function)

配合模型训练,有Loss/Error Fuction:

Softmax / Cross-entropy loss:

SVM / hinge loss:

 Least squares (L2 loss):

 

二、输入数据的预处理:

    若是输入数据各个维度数据是相关的,将致使各个权重相互影响,不利于优化算法寻找局部最优解。

    若是各个维度的规模不一致,将致使对应的Error Surface容易出现狭窄区域,不利于优化算法寻找局部最优。

    一般对向量数据必需要用PCA和白化处理,而对于通常的数据只须要作到均值化和归一化。

 

三、训练算法(BP算法)

   神经网络的训练目标是找到W和B使得损失函数最小。优化算法须要计算dW和dB。BP算法就是计算W和B导数的算法。

   BP算法的核心是链式规则。

算法步骤:

a. forward计算一次

b. 逐层计算backwoard获得各个层的dW和dB。

c. 应用随机梯度降低法SGD,更新W,B

 

四、数值校验

   实现BP算法的过程当中比较容易出错,所以有必要进行检查。

 

五、算法优化

   多层网络的Error Surface很是复杂,存在不少局部最优,咱们要寻找尽量大的范围内的局部最优。

   动量法不随更新W合适更新“更新W”的速度。

   当位于距离较长的“坡”的时候动量法能够加快滑动速度;当位于平缓的区域时,动量法也可以保持必定的速度。



相关文章
相关标签/搜索