.Cygwin下启动Hbase Hive

最近在试验HBASE,HIVE与应用程序的结合,故配置一下开发环境
Hbase方法
1.将hbase压抑至Cygwin目录下
2.配置两个主要文件conf/hbase-site.xml conf/hbase-env.sh
  <1 conf/hbase-site.xml
<configuration>
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://127.0.0.1:9000/hbase</value>
    </property>
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <name>hbase.master.port</name>
        <value>60000</value>
    </property>
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>127.0.0.1</value>
    </property>
   <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
</configuration>
<2.conf/hbase-env.sh
export JAVA_HOME='C:/Java/jdk1.6.0_33'  --JDK目录
export HBASE_MANAGES_ZK=true   //要打开此设置   表示启用自带的Zookeeper
3.conf/hbase-site.xml conf/hbase-env.sh转成linux格式
4.要替换lib/hadoop-core-0.20-append-r1056497.jar 为hadoop-0.20.2-core.jar
5.启动hadoop 再启动hbase.
 
Hive方法
1.conf/hive-env.sh 设置 HADOOP_HOME='C:\cygwin\hadoop'
2.conf/hive-site.xml   conf/hive-log4j.properties  conf/hive-exec-log4j.properties
3./hadoop/bin/hadoop dfs -mkdir /tmp等三个文件同时给权限
  <1 /hadoop/bin/hadoop dfs -mkdir /tmp
  <2 /hadoop/bin/hadoop dfs -mkdir /user/hive/warehouse
  <3 /hadoop/bin/hadoop dfs -chmod g+w /tmp
  <4 /hadoop/bin/hadoop dfs -chmod g+w /user/hive/warehouse
4.启动 bin/hive -hiveconf java.io.tmpdir=/tmp
 
多用户访问HIVE方法
1.在上面的配置成功的基础上做如下工作
    <1.conf/hive-site.xml 配置文件需要支持mysql
    <2.bin/hive --service metastore &     ---启动metastore服务器(默认端口:9083),可以看到如果启动成功,会在mysql上创建一个hive的数据库
    <3.bin/hive -hiveconf java.io.tmpdir=/tmp --启动hive
    <4.进入 hive > show table;  --应该是正常的
    <5.如果出现异常,可以查看日志  %hive_home%/tmp/administrator/hive.log
    <6.有出现" Specified key was too long; max key length is 767 bytes" 的错误,是因为MYSQL字符集的问题,修改为charset=latin5;即可解决
注意:
最好不要用快捷方式打开Cygwin,而要进入目录启动Cygwin.bat来操作
原文地址:https://www.cnblogs.com/bobsoft/p/2714486.html