机器学习基础知识点①:LR、SVM、朴素贝叶斯

1、样本不平衡的解决方法? 1)上采样和子采样;2)修改权重(修改损失函数);3)集成方法:bagging,类似随机森林、自助采样;4)多任务联合学习; 2、交叉熵函数系列问题?与最大似然函数的关系和区别? 1)交叉熵损失函数的物理意义:用于描述模型预测值与真实值的差距大小; 2)最小化交叉熵的本质就是对数似然函数的最大化; 3)对数似然函数的本质就是衡量在某个参数下,整体的估计和真实情况一样的概
相关文章
相关标签/搜索