推广到多个特征算法
难点在于:类条件几率是全部属性的联合几率,难以从有限的训练样本直接估计而得。Naive Bayes Classifier采用了属性条件独立性假设(attribute conditional independence assumption):对已知类别,假设全部属性相互独立。
对全部类别来讲相同,故略去。机器学习
只有当属性独立时,才能作最后一步的变形。学习
独立必定不相关spa
不相关未必独立ip
举例:X,Y不相关可是不独立:get
朴素贝叶斯分类器与其余分类算法的区别是,贝叶斯分类器算出结果是一个几率,而其余分类器大多算得一个肯定的值it