数据挖掘——关键字提取—基于sklearn包实现

 

 

什么是sklearn?git

  sklearn全名是Scikit-Learn,是基于Python的机器学习模块,基于BSD开源许可证,官方网址是:http://scikit-learn.org/stable正则表达式

  Scikit-Learn的数据结构基于Numpy和Pandas模块,数据计算基于Scipy模块,数据可视化基于Matplotlib模块。算法

  Scikit-Learn的基本功能:数组

  分类;回归;聚类;数据降维;模型选择;数据预处理。网络

  Scikit-Learn将具体的机器学习分为3个步骤:数据结构

  数据准备与预处理;模型选择与训练;模型验证和参数调优。app

  Scikit-Learn自带一些经典的数据集,好比用于分类的iris和digits数据集,还有用于回归分析的boston house prices数据集。该数据集是一种字典结构,数据存储在.data成员中,输出标签存储在.target成员中。Scikit-Learn创建在Scipy之上,提供了一套经常使用的机器学习算法,经过一个统一的接口来使用,Scikit-Learn有助于在数据集上实现流行的算法。 Scikit-Learn还有一些库,好比:用于天然语言处理的Nltk、用于网站数据抓取的Scrappy、用于网络挖掘的Pattern、用于深度学习的Theano等。 机器学习

  sklearn实现分词与关键字提取的原理:sklearn进行TF-IDF分词的规则是基于空格和标点符号对原文进行分割。函数

  sklearn进行文本处理的步骤:学习

from sklearn.feature_extraction.text import CountVectorizer

#例子
example1 = ['咱们 还 没有 到 家',
            '大家 什么 时候 回来',
            '他 想 吃 肉']
gjz_count = CountVectorizer()
textvecot = gjz_count.fit_transform(example1) #获得文档向量化的矩阵内容

textvecot.todense() #经过todense方法获取向量化矩阵,数据结构为numpy.matrixlib.defmatrix.matrix
gjz_count.vocabulary_ #查看矩阵每一个列对应的分词,数据结构为字典
type(gjz_count) #数据结构为sklearn.feature_extraction.text.CountVectorizer
type(textvecot.todense()) #数据结构为numpy.matrixlib.defmatrix.matrix
type(gjz_count.vocabulary_) #数据结构为字典
#原理就是经过ID查询单词或经过单词查询ID

结果中将长度为1的分词全都剔除了,因此在CountVectorizer函数的构造过程当中须要设置初始化参数

gjz_count = CountVectorizer(
        min_df=0, #设置分词最小长度为0 
        token_pattern=r'\b\w+\b') #分词的正则表达式
#进行TF-IDF的运算,导入sklearn包中的TF-IDF的计算方法,直接调用
from sklearn.feature_extraction.text import TfidfTransformer 
transformer = TfidfTransformer()
tfidf = transformer.fit_transform(textvecot) #传入获得的字符串数组,获得tf-idf矩阵
#将tfidf数据结构转为数据框矩阵
import pandas as pd 
tfidfDF = pd.DataFrame(tfidf.toarray()) #转换为数据框 
tfidfDF.columns
tfidfDF.columns = gjz_count.get_feature_names() #将数据框的列名替换成分词
##获得列名为分词,行为tf-idf值的矩阵

  对分词的tf-idf值排序后,直接输出关键字

import numpy as np
tfidf_sorted = np.argsort(tfidf.toarray(),axis=1)[:,-2:] #对全部行排序,取tf-idf值最大的2个分词的列名
tfidfDF.columns[tfidf_sorted].values #根据列名获得对应关键字
相关文章
相关标签/搜索