Machine Learning(机器学习)之三

Machine Learning(机器学习)之二:juejin.im/post/5bd1d1…算法

分类问题

要尝试分类,一种方法是使用线性回归并将大于0.5的全部预测映射为1,将全部小于0.5的预测映射为0.可是,此方法不能很好地工做,由于分类实际上不是线性函数。机器学习

分类问题就像回归问题同样,除了咱们如今想要预测的值只占用少许离散值。如今,咱们将重点关注二进制分类 问题,其中y只能处理两个值0和1.(咱们在这里所说的大多数也将推广到多类状况。)例如,若是咱们正在尝试为电子邮件构建垃圾邮件分类器X (i ) ,若是是一封垃圾邮件,则y可能为1,不然为0。所以,y∈{0,1}。0也称为负类,1表示正类,它们有时也用符号“ - ”和“+”表示。X(i ) ,相应的Y(i ) 也称为训练范例的标签。函数

假设函数的表达式post

咱们能够忽略y是离散值的事实来处理分类问题,并使用咱们的旧线性回归算法来尝试预测给定x。可是这种方法的效果很是差。学习

直观地说,当y∈{0,1}时,h θ(x) 取大于1或小于0的值没有什么意义。要解决这个问题,让咱们改变假设函数的形式 hθ(x)让它知足 3d

咱们的新形式使用“Sigmoid函数”,也称为“逻辑函数”: cdn

下图显示了sigmoid函数的样子:
此处所示的函数g(z)将任何实数映射到(0,1)区间,这使得将任意值函数转换为更适合分类的函数很是有用。

hθ(x)会给出输出为1的几率。例如:hθ(x) = 0.7,意思就是咱们的输出为1的几率是70%,咱们的预测为0的几率只是咱们几率为1的补充(例如,若是它是1的几率是70%,那么它的几率是0 0是30%)。blog

决策边界get

为了获得离散的0或1分类,咱们能够将假设函数的输出转换以下: it

咱们的逻辑函数g的行为方式是当其输入大于或等于零时,其输出大于或等于0.5:
注:

因此

从这些陈述咱们如今能够说:

该决策边界是其中y = 0且其中y = 1,这是由咱们的假设函数建立分离区域的线条。

示例:

在这种状况下,咱们的决策边界是一条直线垂直线放置在图形中X1=5,左边的全部东西都表示y = 1,而右边的全部东西都表示y = 0。

实例:

一样,sigmoid函数g(z)的输入(例如,θ^TX)不须要是线性的,而且能够是描述圆的函数(例如,

)或任何符合咱们数据的形状。

相关文章
相关标签/搜索