PyTorch基础练习-task5(PyTorch实现L1,L2正则化以及Dropout)

PyTorch基础练习-task5 一、Dropout原理 二、用代码实现正则化(L1和L2) 2.1、L1实现 2.2、L2实现 三、PyTorch中实现dropout 一、Dropout原理 在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征,如下图。 Dropout缩放:我们训练的时候会随机的丢弃一些神经元,但是预测的时候就
相关文章
相关标签/搜索