本文介绍了在一台机器上的Hadoop多个数据节点的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我有兴趣在一台Linux机器上配置多个数据节点(例如2).

I'm interested in configuring multiple data nodes (say 2) on a single Linux machine.

我进行了一些研究,并按照教程进行操作,但是没有用.

I made some research and followed a tutorial but didn't work.

如果有人可以提供有效的教程或向我展示如何做.

If someone can give a working tutorial or show me how to do it.

谢谢

推荐答案

您可以在同一节点本身中运行多个datanode实例,而不必创建单独的VM.唯一的事情是您必须为每个datanode实例维护不同的配置.

Instead of creating separate VM's you can run multiple datanode instance in the same node itself. Only thing is you got to maintain different configurations for each datanode instance.

需要为每个datanode守护程序指定不同的端口在 hdfs-中覆盖以下参数site.xml :

Need to specify different port for each datanode daemonsoverride the following parameters in hdfs-site.xml:

dfs.datanode.address  0.0.0.0:50010  The datanode server address and port for data transfer.
dfs.datanode.http.address    0.0.0.0:50075  The datanode http server address and port.
dfs.datanode.ipc.address     0.0.0.0:50020  The datanode ipc server address and port.

还需要为每个datanode守护程序维护不同的数据目录覆盖以下参数

Also need to maintain different data directory for each datanode daemonsoverride the following parameters

dfs.datanode.data.dir

这篇关于在一台机器上的Hadoop多个数据节点的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

09-14 17:19