回归:输出是连续值。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。html
线性回归适用于回归问题。git
分类:输出是离散值。咱们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。github
softmax回归则适用于分类问题。算法
线性回归和softmax回归都是单层神经网络,它们涉及的概念和技术一样适用于大多数的深度学习模型。网络
咱们首先以线性回归为例,介绍大多数深度学习模型的基本要素和表示方法。机器学习
模型输出 y^ 是线性回归对真实价格 y 的预测或估计。函数
模型训练(model training)接下来咱们须要经过数据来寻找特定的模型参数值,使模型在数据上的偏差尽量小。学习
下面咱们介绍模型训练所涉及的3个要素。测试
(1) 训练数据优化
训练数据集(training data set)或训练集(training set)
(2) 损失函数
给定训练数据集,损失函数表示的偏差只与模型参数相关,所以咱们将它记为以模型参数为参数的函数。在机器学习里,将衡量偏差的函数称为损失函数(loss function)。
(3) 优化算法
当模型和损失函数形式较为简单时,上面的偏差最小化问题的解能够直接用公式表达出来。这类解叫做解析解(analytical solution)。线性回归和平方偏差恰好属于这个范畴。
然而,大多数深度学习模型并无解析解,只能经过优化算法有限次迭代模型参数来尽量下降损失函数的值。这类解叫做数值解(numerical solution)。
把学出的参数代入线性回归模型,估算训练数据集之外任意一栋面积(平方米)为x1、房龄(年)为x2的房屋的价格。
这里的估算也叫做模型预测、模型推断或模型测试。
下面解释线性回归与神经网络的联系,以及线性回归的矢量计算表达式。
参考: