卷积神经网络CNN【3】非线性激活层Relu层

【3】非线性激活层Relu 卷积后产生的特征图中的值,越靠近1表示与该特征越关联,越靠近-1表示越不关联,而我们进行特征提取时,为了使得数据更少,操作更方便,就直接舍弃掉那些不相关联的数据。 ①>=0的值不变 ②而<0的值一律改写为0 经过Relu函数后
相关文章
相关标签/搜索