深度堆栈自编码网络

为什么会引进自编码网络? 我们都是知道深度神经网络里面的网络一般是比较深的,在训练之初,模型参数的初始化对模型影响十分深远的。当初始化选的好时,模型可以很快的收敛,可以避开一些局部最优点。当初始化选的不好是,模型要么就收敛到局部最优的马鞍点,要么就是收敛的特别慢。 所以为了解决参数初始化的问题,Hinton大佬提出了使用大量的没label的数据来“无监督”算法逐层预训练网络的初值,再使用有labe
相关文章
相关标签/搜索