“挖掘机”升级路三篇(05)--安装HBase集群的理解

---恢复内容开始---

2016-04-01

  哎,转眼就是一周了,我简直是日了狗了,Hadoop还木有完全搭建起来,好气啊,有木有!有木有!一周,我也没有玩,一直在钻研,怕就是底子太薄造成的麻烦。

  虽然没有达到预期的速度,但是在不断的摸索过程中还是有些收货,对于和机器打交道这件事,我觉得也有缘分在里面,为啥?你比如说我明天突然看到一片合适的博客

或者说,我明天的尝试突然对头了,是不是半天就可以完全解决问题了,也许就是一个小小的地方把我卡住了。所以,我不放弃,我相信明天可以这做好!!!

  先来扯扯今天有些个什么收获。闲话不说,上干菜!

  1.在配置HBase集群的时候,我们会修改一个文件hbase-site.xml 在这个文件中有几处是特别值得我们注意的,我先列出前提条件。

  • 集群地址
  • master  ip:192.168.0.10
  • slave1   ip:192.168.0.17
  • slave2   ip:192.168.0.18
  • slave3   ip:192.168.0.19

  <name>hbase.zookeeper.quorum</name>

  <value>192.168.0.9,192.168.0.17,192.168.0.18</value>

  在这里也有另外一种写法不写ip地址,写成主机别名<value>slave1,slave2,slave3</value> 在这里实际上就是为了写出我们要启动的集群,因为我们一般从master

启动,所以要让系统知道是哪些机器,你用别名和这个地址都是一样的。另外这里只能是奇数个,比如3个和5个等等。要是是偶数个就不写master(namenode)

,奇数就都写了。

  2.,<name>hbase.master</name>

      <value>192.168.0.10:60000</value>

  这里的原理同上,比如说,你的主机名称不是master而是用的first,拿不准该怎么改的时候,你可以用IP地址来解决。

  3.配置hbase-env.sh

  export HBASE_CLASSPATH=/opt/hadoop-2.6.0/etc/hadoop  有的版本是hadoop中将/etc/hadoop换成conf

  在这里面主要是有的文章是这样的路径/opt/hbase/conf(这些都是我自己的路径,按实际安装路径为准,我的装在/opt下面),我对比了几篇文章,在hadoop多一点,理由是:由于使用到了HDFS的HA地址,需要配置为hadoop目录。具体我也没验证,因为我的环境不正常运行,泪奔有木有,有木有!!!

---恢复内容结束---

---恢复内容结束---

原文地址:https://www.cnblogs.com/wajueji/p/5343838.html