我正在尝试将名为“afile”的本地文件复制到HDFS。
所以我运行了以下命令:

“hadoop fs -copyFromLocal / home / neo / afile in”
或'hadoop fs -put / home / neo / afile in'

但是,它说:
'文件/ home / neo / afile不存在'

然后,我将文件“afile”放入hadoop下的目录中。现在,copyFromLocal成功。但是,文件“in”为空,因为我运行了
显示“hadoop fs-ls”

'-rw-r--r--'1 neo supergroup 0 2015-04-06 17:45 / user / neo / in

我也尝试了“hadoop fs -cat in”,什么也没返回。

有人可以帮忙吗?

谢谢!

最佳答案

  • 在本地文件系统中的test.txt中创建名为/home/neo/的新文件
  • 将内容添加到test.txt中:echo "sample text for wordcount" > /home/neo/test.txt
  • 使用以下命令在hdfs中创建新目录:hadoop fs -mkdir /user/neo/in/
  • 将文件从本地目录复制到HDFS:hadoop fs -copyFromLocal /home/neo/test.txt /user/neo/in/test.txt
  • 10-08 02:23