Deep learning: prevent overfitting && speed up training

 prevent overfitting: 1. 在loss function上添加L1、L2正则项 2. Drop out 3. Data augmentation 4. early stopping 在Keras上都有对应的实现方式  speed up training 1. normalization(零均值化 + 归一化方差),why normalization?因为如果input 差别很
相关文章
相关标签/搜索