机器学习第五周

代价函数和反向传播 代价函数 首先引入一些新的我们即将讨论的变量名称: L = 网络的总层数 sj s j = 网络第 j 层的单元节点数(不包含偏置项) K = 最后一层输出的单元数 m = 样本的个数 在神经网络中,我们可能有很多输出节点,我用 hθ(x)k h θ ( x ) k 表示 kth k t h 的输出。逻辑回归中,我们只有一个输出 y,因此 K = 1,回顾正则化逻辑回归的代价函
相关文章
相关标签/搜索