Machine Learning(机器学习)之二:juejin.im/post/5bd1d1…算法
要尝试分类,一种方法是使用线性回归并将大于0.5的全部预测映射为1,将全部小于0.5的预测映射为0.可是,此方法不能很好地工做,由于分类实际上不是线性函数。机器学习
分类问题就像回归问题同样,除了咱们如今想要预测的值只占用少许离散值。如今,咱们将重点关注二进制分类 问题,其中y只能处理两个值0和1.(咱们在这里所说的大多数也将推广到多类状况。)例如,若是咱们正在尝试为电子邮件构建垃圾邮件分类器X (i ) ,若是是一封垃圾邮件,则y可能为1,不然为0。所以,y∈{0,1}。0也称为负类,1表示正类,它们有时也用符号“ - ”和“+”表示。X(i ) ,相应的Y(i ) 也称为训练范例的标签。函数
假设函数的表达式post
咱们能够忽略y是离散值的事实来处理分类问题,并使用咱们的旧线性回归算法来尝试预测给定x。可是这种方法的效果很是差。学习
直观地说,当y∈{0,1}时,h θ(x) 取大于1或小于0的值没有什么意义。要解决这个问题,让咱们改变假设函数的形式 hθ(x)让它知足 3d
咱们的新形式使用“Sigmoid函数”,也称为“逻辑函数”: cdn
hθ(x)会给出输出为1的几率。例如:hθ(x) = 0.7,意思就是咱们的输出为1的几率是70%,咱们的预测为0的几率只是咱们几率为1的补充(例如,若是它是1的几率是70%,那么它的几率是0 0是30%)。blog
决策边界get
为了获得离散的0或1分类,咱们能够将假设函数的输出转换以下: it
因此
该决策边界是其中y = 0且其中y = 1,这是由咱们的假设函数建立分离区域的线条。
示例:
在这种状况下,咱们的决策边界是一条直线垂直线放置在图形中X1=5,左边的全部东西都表示y = 1,而右边的全部东西都表示y = 0。
实例:
一样,sigmoid函数g(z)的输入(例如,θ^TX)不须要是线性的,而且能够是描述圆的函数(例如,