卷积神经网络04(反向传播)

计算图过程 多隐藏层的时候,就相当于对前一层的结果进行 可以看出其实就是对每一层的叠加,这里可能有人会问,那是不是所有的都一样呢? 直接化简不久OK了嘛?其实不然,如果化简了,那还弄这些有啥意义了呢? 因此需要进行一个非线性的函数,加入到每一层。 加入到激活函数,非线性函数sigmoid,relu等
相关文章
相关标签/搜索