from sklearn.feature_extraction.text import **
考虑以下预料,三行 ⇒ 三个文档,不重复的单词共有 8 个,html
corpus = ['I love you',
'You love him',
'He loves me']
from sklearn.feature_extraction.text import CountVectorizer
# 大写字母开头,显然是一个类
vectorizer = CountVectorizer()
csr_mat = vectorizer.fit_transform(corpus)
print(type(csr_mat))
# scipy.sparse.csr.csr_matrix
# 稀疏矩阵,通常而言,预料信息都是十分海量的,出于节省内存的考虑,将其做为稀疏形式存储。
print(csr_mat)
print(csr_mat.todense())
再来计算 tf-idf 的值:python
from sklearn.feature_extraction.text import TfidfTransformer
transformer = TfidfTransformer()
tfidf = transformer.fit_transform(csr_mat)
print(type(tfidf))
print(tfidf)
print(tfidf.todense())
# 最终算下来会与获得的结果有必定的不一样,
# 这是由于在 sklearn 内部会作一些去停用词、平滑、正则化等的操做,
另外,须要注意的是:note that CountVectorizer discards “words” that contain only one character, such as “s”。中文也是如此,我
和 I
都不会被 CountVectorizer 看成 term。大数据
教你成为全栈工程师(Full Stack Developer) 三十三-利用scikit-learn计算tf-idf作文本词频分析 - SharEDITor - 关注大数据技术
TF-IDF与余弦类似性的应用(一):自动提取关键词atom
阮老师的这篇文章,计算 idf 时取的对数是以 10 为底的对数,则蜜蜂的 tf-idf 为