深度学习100问

目录 ● BatchNormalization的作用 ● 梯度消失 ● 循环神经网络,为什么好? ● 什么是Group Convolution ● 什么是RNN ● 训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些? ● 图像处理中锐化和平滑的操作 ● VGG使用3*3卷积核的优势是什么? ● Relu比Sigmoid的效果好在哪里? ● 问题:神经网络中权重共享
相关文章
相关标签/搜索