我正在尝试在Scala上的Spark中进行字数统计实验室。我能够成功地将文本文件加载到变量(RDD)中,但是当我执行.flatmap,.map和reduceByKey时,会收到附带的错误消息。我对此并不陌生,所以将不胜感激任何类型的帮助。请告诉我。 capture

最佳答案

您的程序失败,因为它无法检测到Hadoop中存在的文件

需要以以下格式指定文件

sc.textFile("hdfs://namenodedetails:8020/input.txt")

07-24 09:32