反复查找问题,hadoop参数调整优化,代码开发检查,反复的测试,群集的本地读写能力,就是慢,
经过几天的奋战,终于找到问题的原因,竟然是有各别的datanode节点网络有问题,scp数据的时候每秒才5M,正常的话是85~110M左右,
后来dd个4G的数据,逐一排查服务器,scp scp scp,终于找到3台服务器网络问题,原来是水晶头问题,重新做了水晶头,恢复正常了。
原来40分钟的job10分钟执行完了。
记录下,提醒朋友们,hadoop部署前已经要好好检查底层的基础环境,不然就会遇到各种问题,不断的排查了。