deeplearning.ai 笔记 Specialization 4 week 2 Convolutional Neural Networks Case Studies

1. 实例学习 2.经典神经网络 LeNet - 5 AlexNet VGG-16 3. 残差网络(Residual Networks, ResNets) 残差块: short cut/skip connection 原来的传播是a->liner->ReLu->liner->ReLu->a[l+2] 残差块做的事是把a直接约过几个层,传播到ReLu之前,让a[l+2]在ReLu计算时包含了这一部分
相关文章
相关标签/搜索