【NLP实践-Task5 神经网络基础】深度学习基础

目录 前馈神经网络 反向传播 输入/隐藏/输出层 隐藏单元(激活函数 ) ReLU(修正线性单元) Sigmoid/ tanh Softmax 激活函数对比 sigmoid tanh relu leaky relu 激活函数选取准则 损失函数 损失函数的非凸性 常用的损失函数 0-1损失 绝对值损失 log对数损失函数 平方损失函数 指数损失函数 Hinge损失函数 正则化 参数范数惩罚 L2正则
相关文章
相关标签/搜索