环境,参考之前的两篇博文:
jdk1.7
hadoop2.6.0 完全分布式
一个master,slave1,slave2,slave3
zookeeper3.4.6 完全分布式
安装与配置:(以下步骤都在master上操作,配置好了之后发送到其他的slave上并稍作环境变量配置即可)
到官网去下载hbase1.2.6的安装包,然后解压到/usr/local/目录下,然后用mv命令重命名为hbase
环境变量配置:
/etc/profile
进入hbase的conf目录下,这里边存放的是配置文件,下面做配置:
修改hbase-env.sh文件,找到如下几行,并且改成如图这样:
修改hbase-site.xml文件
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/zookeeper</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/usr/local/hbase/tmp</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2,slave3</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
修改regionservers,将文件内容设置为:
master
slave1
slave2
slave3
然后通过scp -r /usr/local/hbase hadoop@slave1:/usr/local/发送到slave1上,slave2、slave3的发送都一样,然后分别在slave上做环境变量配置。
这样就完成了,如果想检测的话,得先启动hadoop的dfs,然后再启动hbase,执行hbase shell命令就能进入hbase数据库了。
hbase1.0以后的webUI访问端口为16010(之前的为60010)