数据挖掘深刻理解和学习路径

上一篇文章中分享了数据分析的学习全景路径算法

其中最关键的部分就是数据挖掘,那什么是数据挖掘呢?安全

数据挖掘就是经过分析采集而来的数据源,从庞大的数据中发现规律,找到宝藏。网络

 

一,数据挖掘的基本流程机器学习

  数据挖掘可分为6个步骤:学习

    1.商业理解:数据挖掘不是咱们的目的,咱们的目的是更好地帮助业务,因此第一步咱们要从商业的角度理解项目需求,在这个基础上,再对数据挖掘的目标进行定义。大数据

    2.数据理解:尝试收集部分数据,而后对数据进行探索,包括数据描述、数据质量验证等。这有助于你对收集的数据有个初步的认知。优化

    3.数据准备:开始收集数据,并对数据进行清洗、数据集成等操做,完成数据挖掘前的准备工做网站

    4.模型创建:选择和应用各类数据挖掘模型,并进行优化,以便获得更好的分类结果spa

    5.模型评估:对模型进行评价,并检查构建模型的每一个步骤,确认模型是否实现了预约的商业目标rest

    6.上线发布:  :模型的做用是从数据中找到金矿,也就是咱们所说的“知识”,得到的知识须要转化成用户可使用的方式,呈现的形式能够是一份报告,也能够是实现一个比较复杂的、可重复的数据挖掘过程。

             数据挖掘结果若是是平常运营的一部分,那么后续的监控和维护就会变得重要。

二,数据挖掘的十大算法

  为了进行数据挖掘任务,数据科学家们提出了各类模型,在众多的数据挖掘模型中,国际权威的学术组织 ICDM (the IEEE International Conference on Data Mining)评选出了十大经典的算法。

按照不一样的目的,我能够将这些算法分红四类,以便你更好的理解。

  l1. 分类算法:C4.5,朴素贝叶斯(Naive Bayes),SVM,KNN,Adaboost,CART
  l2.  聚类算法:K-Means,EM
  l3.  关联分析:Apriori
  l4.  链接分析:PageRank

  1. C4.5
    C4.5 算法是得票最高的算法,能够说是十大算法之首。C4.5 是决策树的算法,它创造性地在决策树构造过程当中就进行了剪枝,而且能够处理连续的属性,也能对不完整的数据进行处理。它能够说是决策树分类中,具备里程碑式意义的算法。
  2. 朴素贝叶斯(Naive Bayes)
    朴素贝叶斯模型是基于几率论的原理,它的思想是这样的:对于给出的未知物体想要进行分类,就须要求解在这个未知物体出现的条件下各个类别出现的几率,哪一个最大,就认为这个未知物体属于哪一个分类。
  3. SVM
    SVM 的中文叫支持向量机,英文是 Support Vector Machine,简称 SVM。SVM 在训练中创建了一个超平面的分类模型。若是你对超平面不理解,没有关系,我在后面的算法篇会给你进行介绍。
  4. KNN
    KNN 也叫 K 最近邻算法,英文是 K-Nearest Neighbor。所谓 K 近邻,就是每一个样本均可以用它最接近的 K 个邻居来表明。若是一个样本,它的 K 个最接近的邻居都属于分类 A,那么这个样本也属于分类 A。
  5. AdaBoost
    Adaboost 在训练中创建了一个联合的分类模型。boost 在英文中表明提高的意思,因此 Adaboost 是个构建分类器的提高算法。它可让咱们多个弱的分类器组成一个强的分类器,因此 Adaboost 也是一个经常使用的分类算法。
  6. CART
    CART 表明分类和回归树,英文是 Classification and Regression Trees。像英文同样,它构建了两棵树:一棵是分类树,另外一个是回归树。和 C4.5 同样,它是一个决策树学习方法。
  7. Apriori
    Apriori 是一种挖掘关联规则(association rules)的算法,它经过挖掘频繁项集(frequent item sets)来揭示物品之间的关联关系,被普遍应用到商业挖掘和网络安全等领域中。频繁项集是指常常出如今一块儿的物品的集合,关联规则暗示着两种物品之间可能存在很强的关系。
  8. K-Means
    K-Means 算法是一个聚类算法。你能够这么理解,最终我想把物体划分红 K 类。假设每一个类别里面,都有个“中心点”,即意见领袖,它是这个类别的核心。如今我有一个新点要归类,这时候就只要计算这个新点与 K 个中心点的距离,距离哪一个中心点近,就变成了哪一个类别。
  9. EM
    EM 算法也叫最大指望算法,是求参数的最大似然估计的一种方法。原理是这样的:假设咱们想要评估参数 A 和参数 B,在开始状态下两者都是未知的,而且知道了 A 的信息就能够获得 B 的信息,反过来知道了 B 也就获得了 A。能够考虑首先赋予 A 某个初值,以此获得 B 的估值,而后从 B 的估值出发,从新估计 A 的取值,这个过程一直持续到收敛为止。
EM 算法常常用于聚类和机器学习领域中。
  10. PageRank
    PageRank 起源于论文影响力的计算方式,若是一篇文论被引入的次数越多,就表明这篇论文的影响力越强。一样 PageRank 被 Google 创造性地应用到了网页权重的计算中:当一个页面链出的页面越多,说明这个页面的“参考文献”越多,当这个页面被链入的频率越高,说明这个页面被引用的次数越高。基于这个原理,咱们能够获得网站的权重划分。

 

三,数据挖掘的数学原理

说了这么多数据挖掘中的经典算法,可是若是你不了解几率论和数理统计,仍是很难掌握算法的本质;若是你不懂线性代数,就很难理解矩阵和向量运做在数据挖掘中的价值;若是你没有最优化方法的概念,就对迭代收敛理解不深。因此说,想要更深入地理解数据挖掘的方法,就很是有必要了解它后背的数学原理。
  1. 几率论与数理统计
    几率论在咱们上大学的时候,基本上都学过,不过大学里老师教的内容,偏几率的多一些,统计部分讲得比较少。在数据挖掘里使用到几率论的地方就比较多了。好比条件几率、独立性的概念,以及随机变量、多维随机变量的概念。
    不少算法的本质都与几率论相关,因此说几率论与数理统计是数据挖掘的重要数学基础。
  2. 线性代数
    向量和矩阵是线性代数中的重要知识点,它被普遍应用到数据挖掘中,好比咱们常常会把对象抽象为矩阵的表示,一幅图像就能够抽象出来是一个矩阵,咱们也常常计算特征值和特征向量,用特征向量来近似表明物体的特征。这个是大数据降维的基本思路。
    基于矩阵的各类运算,以及基于矩阵的理论成熟,能够帮咱们解决不少实际问题,好比 PCA 方法、SVD 方法,以及 MF、NMF 方法等在数据挖掘中都有普遍的应用。
  3. 图论
    社交网络的兴起,让图论的应用也愈来愈广。人与人的关系,能够用图论上的两个节点来进行链接,节点的度能够理解为一我的的朋友数。咱们都据说过人脉的六度理论,在 Facebook 上被证实平均一我的与另外一我的的链接,只须要 3.57 我的。当然图论对于网络结构的分析很是有效,同时图论也在关系挖掘和图像分割中有重要的做用。

 

  4. 最优化方法    最优化方法至关于机器学习中自我学习的过程,当机器知道了目标,训练后与结果存在误差就须要迭代调整,那么最优化就是这个调整的过程。通常来讲,这个学习和迭代的过程是漫长、随机的。最优化方法的提出就是用更短的时间获得收敛,取得更好的效果。

相关文章
相关标签/搜索