DeepLearning学习笔记之ReLU函数

1、什么是稀疏激活函数(ReLU)算法 ReLU全称是Rectified Liner Uints,其具体形式为y=max(0,x)。网络         ReLU具备:一、单侧抑制;二、相对宽阔的兴奋边界;三、稀疏激活性等优势。架构 2、为何ReLU更有效?函数   生物研究代表:生物神经元只对输入信号中不多部分进行响应,大部分信号则被刻意屏蔽掉了。这样作能够更好的提升学习精度,更好更快的提取稀疏
相关文章
相关标签/搜索