深度神经网络-初始化+训练-工程经验

以下内容来源:https://blog.csdn.net/liyaohhh/article/details/77165483 如果激活函数使用sigmoid和tanh,怎最好使用xavir tf.contrib.layers.xavier_initializer_conv2d 如果使用relu,则最好使用he initial tf.contrib.layers.variance_scaling_i
相关文章
相关标签/搜索