李宏毅机器学习5(P9)

文章目录 一.推导LR损失函数 二.学习LR梯度下降 三.利用代码描述梯度下降(选做) 四.Softmax原理 五.softmax损失函数 六.softmax梯度下降 一.推导LR损失函数 逻辑回归的函数是 f w , b ( x ) = σ ( ∑ i w i x i + b ) f_{w, b}(x)=\sigma\left(\sum_{i} w_{i} x_{i}+b\right) fw,b
相关文章
相关标签/搜索