CBOW word2vec方案如下:
python - 如何从gensim word2vec中提取矩阵WI和WO?-LMLPHP
如何从gensim.models.word2vec.Word2Vec中提取矩阵WI和WO?
我在gensim w2v型号中只找到这些字段:
gensim.models.word2vec.Word2Vec.trainables.syn1neg

gensim.models.word2vec.Word2Vec.vw.syn1neg.vectors
我能假设syn1neg是WI,WO=vectors-syn1neg吗?
为什么要这么做

sentences = [['car', 'tree', 'chip2'], ['chip1', 'sugar']]
model = Word2Vec(sentences, min_count=1, size = 5)

只给出零元素矩阵?
对于30MB数据集Word2Vec.trainables.syn1neg矩阵也只包含零元素,日志如下:
gensim log

最佳答案

w2v_model.wv.vectors以前被称为“syn0”,用作“投影权重”,基本上将一个热门词编码映射到N维。在你的图表中,那是WI。
w2v_model.trainables.syn1neg是负采样模式的隐藏到输出权重,图中标记的是WO。

关于python - 如何从gensim word2vec中提取矩阵WI和WO?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/51594165/

10-11 22:04
查看更多