gensim中的ldamodel具有两种方法:get_document_topics
和get_term_topics
。
尽管在本gensim教程notebook中使用了它们,但我仍不完全了解如何解释get_term_topics
的输出,并在下面创建了自包含的代码来显示我的意思:
from gensim import corpora, models
texts = [['human', 'interface', 'computer'],
['survey', 'user', 'computer', 'system', 'response', 'time'],
['eps', 'user', 'interface', 'system'],
['system', 'human', 'system', 'eps'],
['user', 'response', 'time'],
['trees'],
['graph', 'trees'],
['graph', 'minors', 'trees'],
['graph', 'minors', 'survey']]
# build the corpus, dict and train the model
dictionary = corpora.Dictionary(texts)
corpus = [dictionary.doc2bow(text) for text in texts]
model = models.ldamodel.LdaModel(corpus=corpus, id2word=dictionary, num_topics=2,
random_state=0, chunksize=2, passes=10)
# show the topics
topics = model.show_topics()
for topic in topics:
print topic
### (0, u'0.159*"system" + 0.137*"user" + 0.102*"response" + 0.102*"time" + 0.099*"eps" + 0.090*"human" + 0.090*"interface" + 0.080*"computer" + 0.052*"survey" + 0.030*"minors"')
### (1, u'0.267*"graph" + 0.216*"minors" + 0.167*"survey" + 0.163*"trees" + 0.024*"time" + 0.024*"response" + 0.024*"eps" + 0.023*"user" + 0.023*"system" + 0.023*"computer"')
# get_document_topics for a document with a single token 'user'
text = ["user"]
bow = dictionary.doc2bow(text)
print "get_document_topics", model.get_document_topics(bow)
### get_document_topics [(0, 0.74568415806946331), (1, 0.25431584193053675)]
# get_term_topics for the token user
print "get_term_topics: ", model.get_term_topics("user", minimum_probability=0.000001)
### get_term_topics: [(0, 0.1124525558321441), (1, 0.006876306738765027)]
对于
get_document_topics
,输出是有意义的。这两个概率之和为1.0,而user
具有较高概率的主题(来自model.show_topics()
)也具有较高的概率分配。但是对于
get_term_topics
,存在一些问题:user
具有较高概率的主题(来自model.show_topics()
)也分配了较高的数字,这个数字是什么意思? get_term_topics
可以提供(貌似)相同的功能并具有有意义的输出时,为什么我们应该完全使用get_document_topics
? 最佳答案
我正在从事LDA主题建模工作,并遇到了这篇文章。我确实创建了两个主题,分别说topic1和topic2。
每个主题的前10个字如下:0.009*"would" + 0.008*"experi" + 0.008*"need" + 0.007*"like" + 0.007*"code" + 0.007*"work" + 0.006*"think" + 0.006*"make" + 0.006*"one" + 0.006*"get
0.027*"ierr" + 0.018*"line" + 0.014*"0.0e+00" + 0.010*"error" + 0.009*"defin" + 0.009*"norm" + 0.006*"call" + 0.005*"type" + 0.005*"de" + 0.005*"warn
最终,我拿出1个文档来确定最接近的主题。
for d in doc:
bow = dictionary.doc2bow(d.split())
t = lda.get_document_topics(bow)
输出为
[(0, 0.88935698141006414), (1, 0.1106430185899358)]
。为了回答您的第一个问题,文档的概率总计为1.0,这就是get_document_topics所做的。该文档明确指出,它返回给定文档弓的主题分布,作为(topic_id,topic_probability)2元组的列表。
此外,我尝试获取关键字“ierr” 的get_term_topics
t = lda.get_term_topics("ierr", minimum_probability=0.000001)
,结果是[(1, 0.027292299843400435)]
,这仅是确定每个主题的单词贡献,这是有道理的。因此,您可以根据使用get_document_topics获得的主题分布来标记文档,并可以根据get_term_topics提供的贡献来确定单词的重要性。
我希望这有帮助。
关于python - gensim中的get_document_topics和get_term_topics,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/43357247/