我正在将Spark 1.3.0(Scala 2.10.X)MLlib LDA算法与Spark Java API结合使用。当我尝试在运行时从LDA模型读取文档主题分布时,出现以下问题。
“主要” java.lang.ClassCastException:[Lscala.Tuple2;无法转换为scala.Tuple2
我在下面给出了相关代码:
DistributedLDAModel ldaModel = new LDA().setK(3).run(corpus);
RDD<Tuple2<Object, Vector>> topicDist = ldaModel.topicDistributions();
如何在JavaRDD的“ topicDist”中阅读或显示内容(文档及其主题分发)?
最佳答案
我找到了解决方案,并在下面给出了它:
JavaRDD<Tuple2<Object, Vector>> topicDist = ldaModel.topicDistributions().toJavaRDD();
List<Tuple2<Object, Vector>> list = topicDist.collect();