[斯坦福大学2014机器学习教程笔记]第二章-代价函数(2)

    这一节,咱们将更直观得理解代价函数的做用。函数

    首先,咱们复习一下以前讲的内容。spa

    和上一节不一样,这节讨论的时候保留所有参数,即θ0和θ13d

    如今咱们有一个关于住房价格的训练集,让咱们来作一些假设,假设hθ(x)=50+0.06x,画出直线以下图,显然这是一个不太好的假设,咱们此时能算出J(50,0.06)的值。blog

                                   

     在上一讲中,咱们获得的图形为一个曲线,在这节中咱们获得的是一个3D曲面图。(纵轴坐标为θ0和θ1im

    当你改变θ0和θ1这两个参数的时候,你会获得不一样的代价函数J(θ01)的值。点J(θ01)对应的曲面的高度就是J(θ01)的值。下面咱们不会用3D曲面图来表示,咱们会有等高线图来表示。下面是一些等高线图的例子。margin

     右侧的图中,轴分别为θ0和θ1,其中每个椭圆形表明着一系列J(θ01)值相等的点。右图上取一个点(图上的红点,大概是θ0=800,θ1=-0.15),所对应的函数如左图所示,显然这并无很好地拟合训练集。咱们观察右图就会发现,它的值其实离最小值仍是很是远的,可见这是一个至关高的代价(拟合得很是很差)。db

    咱们再来看另外几个例子。咱们发现离最小值越近的时候拟合得越好。img

     

    越接近最小值的假设,对应着越好的假设函数。di

相关文章
相关标签/搜索