神经网络输出可视化

神经网络可视化经典的方法有两种,分别是反卷积和导向反向传播。反卷积和导向反向传播都是基于反向传播。下面我们来看反卷积和导向反向传播的特点以及例子: 上图为反卷积和导向反向传播在经过relu层时对梯度采取的不同的方法。 导向反向传播:通过修改RELU的梯度反传,使小于0的部分不反传,这样到达第一个conv层的梯度就是对后面relu激活起作用的梯度,对应的就是对网络起作用的区域。 以上的两种方法,我们
相关文章
相关标签/搜索