[深度学习]训练神经网路——深度调参

文章目录 激活函数使用 sigmoid-tanh-ReLU( ReLU,LeakyReLU,ELU ) - MaxOut<类似relu以及诡异华中参数学习.> 建议 数据预处理(Data Preprocessing) 权重初始化 权重初始化研究——所有层激活输出,随着层数越深,激活数值越趋向于零 tanh() 和 ReLU() 激活权重初始化方法<相应的论文给出了方法> 更多适合的权重初始化研究论
相关文章
相关标签/搜索