机器学习算法大体能够分为三类:python
基本的机器学习算法:git
回归分析(Regression Analysis)是统计学的数据分析方法,目的在于了解两个或多个变量间是否相关、相关方向与强度,并创建数学模型以便观察特定变量来预测其它变量的变化状况。github
线性回归算法(Linear Regression)的建模过程就是使用数据点来寻找最佳拟合线。公式,y = m*x + c,其中 y 是因变量,x 是自变量,利用给定的数据集求 m 和 c 的值。 线性回归又分为两种类型,即 简单线性回归(simple linear regression),只有 1 个自变量;多变量回归(multiple regression),至少两组以上自变量。算法
下面是一个线性回归示例:基于 Python scikit-learn 工具包描述。网络
from sklearn import linear_model, datasets #digit dataset from sklearn digits = datasets.load_digits() #create the LinearRegression model clf = linear_model.LinearRegression() #set training set x, y = digits.data[:-1], digits.target[:-1] #train model clf.fit(x, y) #predict y_pred = clf.predict([digits.data[-1]]) y_true = digits.target[-1] print(y_pred) print(y_true)
支持向量机/网络算法(SVM)属于分类型算法。SVM模型将实例表示为空间中的点,将使用一条直线分隔数据点。须要注意的是,支持向量机须要对输入数据进行彻底标记,仅直接适用于两类任务,应用将多类任务须要减小到几个二元问题。app
from sklearn import svm, datasets #digit dataset from sklearn digits = datasets.load_digits() #create the Support Vector Classifier clf = svm.SVC(gamma = 0.001, C = 100) #set training set x, y = digits.data[:-1], digits.target[:-1] #train model clf.fit(x, y) #predict y_pred = clf.predict([digits.data[-1]]) y_true = digits.target[-1] print(y_pred) print(y_true)
KNN算法是一种基于实例的学习,或者是局部近似和将全部计算推迟到分类以后的惰性学习。用最近的邻居(k)来预测未知数据点。k 值是预测精度的一个关键因素,不管是分类仍是回归,衡量邻居的权重都很是有用,较近邻居的权重比较远邻居的权重大。dom
KNN 算法的缺点是对数据的局部结构很是敏感。计算量大,须要对数据进行规范化处理,使每一个数据点都在相同的范围。机器学习
from sklearn import datasets from sklearn.neighbors import KNeighborsClassifier #digit dataset from sklearn digits = datasets.load_digits() #create the KNeighborsClassifier clf = KNeighborsClassifier(n_neighbors=6) #set training set x, y = digits.data[:-1], digits.target[:-1] #train model clf.fit(x, y) #predict y_pred = clf.predict([digits.data[-1]]) y_true = digits.target[-1] print(y_pred) print(y_true)
延伸:KNN 的一个缺点是依赖于整个训练数据集,学习向量量化(Learning Vector Quantization,LVQ)是一种监督学习的人神经网络算法,容许你选择训练实例。LVQ 由数据驱动,搜索距离它最近的两个神经元,对于同类神经元采起拉拢,异类神经元采起排斥,最终获得数据的分布模式。若是基于 KNN 能够得到较好的数据集分类效果,利用 LVQ 能够减小存储训练数据集存储规模。典型的学习矢量量化算法有LVQ一、LVQ2和LVQ3,尤以LVQ2的应用最为普遍。函数
逻辑回归算法(Logistic Regression)通常用于须要明确输出的场景,如某些事件的发生(预测是否会发生降雨)。一般,逻辑回归使用某种函数将几率值压缩到某一特定范围。 例如,Sigmoid 函数(S 函数)是一种具备 S 形曲线、用于二元分类的函数。它将发生某事件的几率值转换为 0, 1 的范围表示。工具
Y = E ^(b0+b1 * x)/(1 + E ^(b0+b1 * x ))
以上是一个简单的逻辑回归方程,B0,B1是常数。这些常数值将被计算得到,以确保预测值和实际值之间的偏差最小。
决策树(Decision tree)是一种特殊的树结构,由一个决策图和可能的结果(例如成本和风险)组成,用来辅助决策。机器学习中,决策树是一个预测模型,树中每一个节点表示某个对象,而每一个分叉路径则表明某个可能的属性值,而每一个叶节点则对应从根节点到该叶节点所经历的路径所表示的对象的值。决策树仅有单一输出,一般该算法用于解决分类问题。
一个决策树包含三种类型的节点:
简单决策树算法案例,肯定人群中谁喜欢使用信用卡。考虑人群的年龄和婚姻情况,若是年龄在30岁或是已婚,人们更倾向于选择信用卡,反之则更少。 经过肯定合适的属性来定义更多的类别,能够进一步扩展此决策树。在这个例子中,若是一我的结婚了,他超过30岁,他们更有可能拥有信用卡(100% 偏好)。测试数据用于生成决策树。
注意:对于那些各种别样本数量不一致的数据,在决策树当中信息增益的结果偏向于那些具备更多数值的特征。
k-平均算法(K-Means)是一种无监督学习算法,为聚类问题提供了一种解决方案。 K-Means 算法把 n 个点(能够是样本的一次观察或一个实例)划分到 k 个集群(cluster),使得每一个点都属于离他最近的均值(即聚类中心,centroid)对应的集群。重复上述过程一直持续到重心不改变。
随机森林算法(Random Forest)的名称由 1995 年由贝尔实验室提出的random decision forests 而来,正如它的名字所说的那样,随机森林能够看做一个决策树的集合。 随机森林中每棵决策树估计一个分类,这个过程称为“投票(vote)”。理想状况下,咱们根据每棵决策树的每一个投票,选择最多投票的分类。
朴素贝叶斯算法(Naive Bayes)基于几率论的贝叶斯定理,应用很是普遍,从文本分类、垃圾邮件过滤器、医疗诊断等等。朴素贝叶斯适用于特征之间的相互独立的场景,例如利用花瓣的长度和宽度来预测花的类型。“朴素”的内涵能够理解为特征和特征之间独立性强。
与朴素贝叶斯算法密切相关的一个概念是最大似然估计(Maximum likelihood estimation),历史上大部分的最大似然估计理论也都是在贝叶斯统计中获得大发展。例如,创建人口身高模型,很难有人力与物力去统计全国每一个人的身高,可是能够经过采样,获取部分人的身高,而后经过最大似然估计来获取分布的均值与方差。
Naive Bayes is called naive because it assumes that each input variable is independent.
在机器学习和统计学领域,降维是指在限定条件下,下降随机变量个数,获得一组“不相关”主变量的过程,并可进一步细分为特征选择和特征提取两大方法。
一些数据集可能包含许多难以处理的变量。特别是资源丰富的状况下,系统中的数据将很是详细。在这种状况下,数据集可能包含数千个变量,其中大多数变量也多是没必要要的。在这种状况下,几乎不可能肯定对咱们的预测影响最大的变量。此时,咱们须要使用降维算法,降维的过程当中也可能须要用到其余算法,例如借用随机森林,决策树来识别最重要的变量。
梯度加强算法(Gradient Boosting)使用多个弱算法来建立更强大的精确算法。它与使用单个估计量不一样,而是使用多个估计量建立一个更稳定和更健壮的算法。梯度加强算法有几种:
更多精彩内容扫码关注公众号:RiboseYim's Blog