卷积神经网络CNN【3】非线性激活层Relu层

【3】非线性激活层Relu函数 Relu函数 f(x)=max(0,x) 非线性激活层即保留大于0的值,即保留特征比较好的值,将特征小于0的值舍去   卷积后通常先跟relu再跟池化。
相关文章
相关标签/搜索