起初在linux上想使用Map/Reduce来完成操作,发现需要导入的jar包过多,大概在6点左右写完程序却跑不起来,一直在找jar包,直接被卡死在这里。

  从教室回来之后,发现好多人都是在windows下完成的操作。突然想起来,暑假里按教程做的那个精准推送的实例,也是在windows的eclipse上编写好代码,将文本文件也放入,打成jar包,然后在linux虚拟机上启用hadoop来进行调用完成操作。

  所以换了一种方法,改成在windows下编程,通过hadoop的jar包来连接虚拟机完成操作。

  HDFS第一次课堂测试-LMLPHP

  这是实验完成的截图。

  中途遇到了一些问题,比如:

  1、连接9000端口失败。我原来做伪分布的配置时将core-site.xml中的配置改成了localhost:8080,那时候是习惯这个号。

    现在两个问题,第一点要将localhost这个只用于本机的改成虚拟机的ip地址,就从ifconfig可以查出来。

    第二点,8080改成大多数人通用的9000,其实我也不知道这俩的区别在哪里,不过8080经常需要使用,这也可以防止端口互相占用。

  2、主机和虚拟机的连接问题,出现了一些小意外,已解决,截图如下:

    在自己主机下能登录(http://192.168.180.128:50070/):

    HDFS第一次课堂测试-LMLPHP

    在cmd里能ping通:

    HDFS第一次课堂测试-LMLPHP

  剩下的就是一些代码上的小问题,这里要给自己长个记性就是要重点注意路径,因为它一般写在字符串里,即便有错误也不会主动报错,很隐秘。

  实验要求输出内容的截图:

  HDFS第一次课堂测试-LMLPHP

04-14 01:26