CBOW word2vec方案如下:
如何从gensim.models.word2vec.Word2Vec
中提取矩阵WI和WO?
我在gensim w2v型号中只找到这些字段:gensim.models.word2vec.Word2Vec.trainables.syn1neg
和gensim.models.word2vec.Word2Vec.vw.syn1neg.vectors
我能假设syn1neg
是WI,WO=vectors
-syn1neg
吗?
为什么要这么做
sentences = [['car', 'tree', 'chip2'], ['chip1', 'sugar']]
model = Word2Vec(sentences, min_count=1, size = 5)
只给出零元素矩阵?
对于30MB数据集
Word2Vec.trainables.syn1neg
矩阵也只包含零元素,日志如下:gensim log
最佳答案
w2v_model.wv.vectors
以前被称为“syn0”,用作“投影权重”,基本上将一个热门词编码映射到N维。在你的图表中,那是WI。w2v_model.trainables.syn1neg
是负采样模式的隐藏到输出权重,图中标记的是WO。
关于python - 如何从gensim word2vec中提取矩阵WI和WO?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/51594165/