上一篇介绍了一些自组织神经网络的基本概念,第一部分,这一篇讲下SOM的概念和原理,是本文的第二部分。算法
1981年芬兰Helsink大学的T.Kohonen教授提出一种自组织特征映射网,简称SOM网,又称Kohonen网。Kohonen认为:一个神经网络接受外界输入模式时,将会分为不一样的对应区域,各区域对输入模式具备不一样的响应特征,并且这个过程是自动完成的。自组织特征映射正是根据这一见解提出来的,其特色与人脑的自组织特性相相似。markdown
典型SOM网共有两层,输入层模拟感知外界输入信息的视网膜,输出层模拟作出响应的大脑皮层。(讲以前再提醒一句,这里介绍的只是经典形式,可是但愿读者和我本身不要被现有形式束缚了思惟,固然初学者,包括我本身,先从基本形式开始理解吧)。 下图是1维和2维的两个SOM网络示意图。网络
SOM网的权值调整域
和上一节介绍的WTA策略不一样,SOM网的获胜神经元对其邻近神经元的影响是由近及远,由兴奋逐渐转变为抑制,所以其学习算法中不只获胜神经元自己要调整权向量,它周围的神经元在其影响下也要程度不一样地调整权向量。这种调整可用三种函数表示,下图的bcd。函数
Kohonen算法:基本思想是获胜神经元对其邻近神经元的影响是由近及远,对附近神经元产生兴奋影响逐渐变为抑制。在SOM中,不只获胜神经元要训练调整权值,它周围的神经元也要不一样程度调整权向量。常见的调整方式有以下几种[2]: 学习
以获胜神经元为中心设定一个邻域半径R,该半径圈定的范围称为优胜邻域。在SOM网学习算法中,优
胜邻域内的全部神经元均按其离开获胜神经元的距离远近不一样程度地调整权值。 优胜邻域开始定得很大,但其大小随着训练次数的增长不断收缩,最终收缩到半径为零。atom
算法总结以下:spa
Kohonen学习算法.net
调整权重,对优胜邻域
blog
结束检查,查看学习率是否减少到0,或者以小于阈值。图片
第(5)点的规律是说,随着时间(离散的训练迭代次数)变长,学习率逐渐下降;随着拓扑距离的增大,学习率下降。学习率函数的形式通常能够写成这样:
第(4)点中,j*的领域
本篇最后看一个SOM工做原理示意图,首先给定训练数据(绿点)和神经元权重初始值(红花)
经过迭代训练以后,神经元权重趋向于聚类中心;
Test阶段,给定数据点(黄点),基于WTA策略,用内积直接算出和哪一个神经元最类似就是分到哪一个类。
OK,本篇就到这里,描述了SOM的基本原理与训练方法;下一篇将讲解SOM实际应用的例子,也是SOM介绍的最后一部分。
[1] https://en.wikipedia.org/wiki/Self-organizing_map [2] 百度文库,《SOM自组织特征映射神经网络》 [3] 《第四章 自组织竞争型神经网络》, PPT