DeepLearning 吴恩达深度学习第二课笔记

改善深层神经网络 偏差、方差 减少偏差     更大的网络       减少方差      更多数据      正则化 正则化 (Regularization) L2正则 ||w||^2,w是高维参数,可以加b,也可以不加   正则化权重lambda过大时,w很小,wx+b接近0,经过激活函数(sigmod/tanh)后,神经网络的效果接近LR   inverted dropout(反向随机失活)
相关文章
相关标签/搜索