深度学习基础

为什么在分类问题中 Loss 一般用交叉熵损失函数(cross entropy) 而不适用类似平方损失函数 交叉熵适合衡量两个概率分布的差异 为什么需要 非线性的激活函数 训练误差 (training error)和泛化误差(generalization error)  虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 训练数据集大小 影响欠拟合和过拟
相关文章
相关标签/搜索