各类机器学习算法原理及优缺点

一、逻辑回归 1.1 原理 将线性回归的结果通过sigmod函数映射到0到1之间,如果结果越接近0或者1,说明分类结果的可信度越高,对于线性不可分的数据,可以对非线性函数进行线性加权,得到一个不是超平面的分割面。     在进行分类时,通过比较上面两式的大小来将输入实例分配到概率值大的那一类。   本质上是线性函数 1.2 目标函数: 交叉熵损失函数/负对数似然函数   1.3 梯度 迭代公式:
相关文章
相关标签/搜索