在PYTHON中进行主题模型LDA分析

原文连接:http://tecdat.cn/?p=6227

主题建模是一种在大量文档中查找抽象主题的艺术方法。一种做为_监督无的_机器学习方法,主题模型不容易评估,由于没有标记的“基础事实”数据可供比较。然而,因为主题建模一般须要预先定义一些参数(首先是要发现的主题_ķ_的数量),所以模型评估对于找到给定数据的“最佳”参数集是相当重要的。python

几率LDA主题模型的评估方法

使用未标记的数据时,模型评估很难。这里描述的指标都试图用理论方法评估模型的质量,以便找到“最佳”模型。web

评估后部分布的密度或发散度

有些指标仅用于评估后验分布(主题 - 单词和文档 - 主题分布),而无需以某种方式将模型与观察到的数据进行比较。网络

使用美联社数据查找最佳主题模型

计算和评估主题模型

主题建模的主要功能位于tmtoolkit.lda_utilspython爬虫

import matplotlib.pyplot as plt   # 绘制结果
plt.style.use('ggplot')

# 读取数据
from tmtoolkit.utils import unpickle_file
# 模型评估
from tmtoolkit.lda_utils import tm_lda
# 创建模型评估图
from tmtoolkit.lda_utils.common import results_by_parameter
from tmtoolkit.lda_utils.visualize import plot_eval_results

接下来,咱们加载由文档标签,词汇表(惟一单词)列表和文档 - 术语 - 矩阵组成的数据dtm。咱们确保dtm**维度**合适:机器学习

doc_labels, vocab, dtm = unpickle_file('ap.pickle')
print('%d documents, %d vocab size, %d tokens' % (len(doc_labels), len(vocab), dtm.sum()))
assert len(doc_labels) == dtm.shape[0]
assert len(vocab) == dtm.shape[1]

如今咱们定义应该评估的参数集咱们设置了一个常量参数字典。const_params,它将包含不变参数用于计算每一个主题模型。咱们还设置了varying_params,包含具备不一样参数值的字典的不一样参数列表:函数

在这里,咱们想要从一系列主题中计算不一样的主题模型ks = [10, 20, .. 100, 120, .. 300, 350, .. 500, 600, 700]。因为咱们有26个不一样的值ks,咱们将建立和比较26个主题模型。请注意,还咱们alpha为每一个模型定义了一个参数1/k(有关LDA中的α和测试超参数的讨论,请参见下文)。参数名称必须与所使用的相应主题建模包的参数匹配。在这里,咱们将使用lda,所以咱们经过参数,如n_itern_topics(而与其余包的参数名称也会有所不一样num_topics,不是而n_topics)。学习

咱们如今能够使用模块中的evaluate_topic_models函数开始评估咱们的模型tm_lda,并将不一样参数列表和带有常量参数的字典传递给它:测试

默认状况下,这将使用全部CPU内核来计算模型来并行评估它们。 大数据

plot_eval_results函数使用在评估期间计算的全部度量建立绘图。以后,若是须要,咱们能够使用matplotlib方法调整绘图(例如添加绘图标题),最后咱们显示和/或保存绘图。lua

结果

主题模型评估,alpha = 1 / k,beta = 0.01

请注意,对于“loglikelihood”度量,仅报告最终模型的对数似然估计,这与Griffiths和Steyvers使用的调和均值方法不一样。没法使用Griffiths和Steyvers方法,由于它须要一个_特殊_的Python包(_gmpy2_) ,这在我运行评估的CPU集群机器上是不可用的。可是,“对数似然”将报告很是类似的结果。

阿尔法和贝塔参数

除了主题数量以外,还有_alpha_和_beta_(有时是文献中的_eta_)参数。二者都用于定义Dirichlet先验分布,用于计算各自的后验分布。Alpha是针对特定于文档的主题分布的先验的“参数”,β是针对主题特定的单词分布的先验的参数 。

主题模型,alpha = 1 / k,beta = 0.1

当咱们使用与上述相同的alpha参数和相同的_k_范围运行评估时,可是当β= 0.1而不是β= 0.01时,咱们看到对数似然在_k_的较低范围内最大化,即大约70到300(见上图) 。

组合这些参数有不少种可能性,可是解释这些参数一般并不容易。下图显示了不一样情景的评估结果:(1)α固定,β的值取决于_k_,(2)α和β都固定, (3)α和β均取决于_k_。

(1)主题模型,alpha = 0.1,beta = 1 /(10k)

(2)主题模型,alpha = 0.1,beta = 0.01

(3)主题模型,alpha = 1 / k,beta = 1 /(10k)

LDA超参数α,β和主题数量都相互关联,相互做用很是复杂。在大多数状况下,用于定义模型“稀疏性”的beta的固定值彷佛是合理的,这也是Griffiths和Steyvers所推荐的。一个更精细的模型评估,具备不一样的alpha参数(取决于_k_)使用解释的指标能够完成不少主题。

▍须要帮助?联系咱们


最受欢迎的看法

1.探析大数据期刊文章研究热点

2.618网购数据盘点-剁手族在关注什么

3.r语言文本挖掘tf-idf主题建模,情感分析n-gram建模研究

4.python主题建模可视化lda和t-sne交互式可视化

5.r语言文本挖掘nasa数据网络分析,tf-idf和主题建模

6.python主题lda建模和t-sne可视化

7.r语言中对文本数据进行主题模型topic-modeling分析

8.r语言对nasa元数据进行文本挖掘的主题建模分析

9.python爬虫进行web抓取lda主题语义数据分析

相关文章
相关标签/搜索