为什么采用激活函数

为什么要使用sigmoid,tanh,ReLU等非线性函数? 这个原因大家都知道,为了增加非线性呗! 深度学习的目的是用一堆神经元堆出一个函数大致的样子,然后通过大量的数据去反向拟合出这个函数的各个参数,最终勾勒出函数的完整形状。 那如果激活函数只是线性函数,那一层层的线性函数堆起来还是线性的,这年头线性函数能干啥呀? 肯定不行,这样整个网络表现能力有限,所以要引入非线性的激活函数进来。 那为什么
相关文章
相关标签/搜索