LR模型相关知识点

LR模型相关知识点web LR归一化问题,什么状况能够不归一化,什么状况必须归一化 为何提到LR损失函数要能知道交叉熵,为何是它,以它为损失函数在优化的是一个什么东西,知道它和KL散度以及相对熵的关系 提到LR的求解方法,好比SGD,知道SGD和BGD的区别,知道不一样的GD方法有什么区别和联系,二阶优化算法知道什么,对比offline learning和online learning的区别 提到
相关文章
相关标签/搜索