Hue安装部署

Hue官方网站:https://gethue.com/
HUE官方用户手册:https://docs.gethue.com/
官方安装文档:https://docs.gethue.com/administrator/installation/install/
HUE下载地址:https://docs.gethue.com/releases/

准备及注意事项

1.下载 hue包
2.安装了maven
3.本文环境为centos7
4.安装Hue的机器最好不要有安装mysql,可能有问题

安装详细步骤

1. 解压下载的安装包

unzip hue-release-4.3.0.zip

2. 安装必要的依赖

yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel gmp-devel rsync

3. 编译Hue包

  1.  
    1. 进入Hue目录下
  2.  
    cd /opt/package/hue-release-4.3.0
  3.  
    2. 编译(到指定目录下)
  4.  
    PREFIX=/opt/moudle make install
  5.  
     
  6.  
    # 如果想把HUE从移动到另外一个地方,由于HUE使用了Python包的一些绝对路径,移动之后则必须执行以下命令:
  7.  
    # 这里不要执行
  8.  
    rm app.reg
  9.  
    rm -r build
  10.  
    make apps

注意: 编译完后,会在指定目录下生成hue目录文件,千万不能改名,否则无法执行hue脚本命令

4. 修改hadoop配置文件

在 hdfs-site.xml 中增加配置

  1.  
    <!-- HUE -->
  2.  
    <property>
  3.  
    <name>dfs.webhdfs.enabled</name>
  4.  
    <value>true</value>
  5.  
    </property>
  6.  
    <property>
  7.  
    <name>dfs.permissions.enabled</name>
  8.  
    <value>false</value>
  9.  
    </property>

在 core-site.xml 中增加配置

  1.  
    <!-- HUE -->
  2.  
    <property>
  3.  
    <name>hadoop.proxyuser.hue.hosts</name>
  4.  
    <value>*</value>
  5.  
    </property>
  6.  
    <property>
  7.  
    <name>hadoop.proxyuser.hue.groups</name>
  8.  
    <value>*</value>
  9.  
    </property>
  10.  
    <property>
  11.  
    <name>hadoop.proxyuser.hdfs.hosts</name>
  12.  
    <value>*</value>
  13.  
    </property>
  14.  
    <property>
  15.  
    <name>hadoop.proxyuser.hdfs.groups</name>
  16.  
    <value>*</value>
  17.  
    </property>

httpfs-site.xml 文件,加入配置

  1.  
    <!-- HUE -->
  2.  
    <property>
  3.  
    <name>httpfs.proxyuser.hue.hosts</name>
  4.  
    <value>*</value>
  5.  
    </property>
  6.  
    <property>
  7.  
    <name>httpfs.proxyuser.hue.groups</name>
  8.  
    <value>*</value>
  9.  
    </property>

备注:修改完HDFS相关配置后,需要把配置scp给集群中每台机器,重启hdfs服务。

5.Hue配置

  1.  
    # 进入hue配置目录
  2.  
    cd desktop/conf
  3.  
    # 复制一份HUE的配置文件,并修改复制的配置文件
  4.  
    cp pseudo-distributed.ini.tmpl pseudo-distributed.ini
  5.  
    vim pseudo-distributed.ini
  6.  
     
  7.  
    -- 如下修改
  8.  
    # [desktop]
  9.  
    http_host=linux122
  10.  
    http_port=8000
  11.  
    is_hue_4=true
  12.  
    time_zone=Asia/Shanghai
  13.  
    dev=true
  14.  
    server_user=hue
  15.  
    server_group=hue
  16.  
    default_user=hue
  17.  
    # 211行左右。禁用solr,规避报错
  18.  
    app_blacklist=search
  19.  
    # [[database]]。Hue默认使用SQLite数据库记录相关元数据,替换为mysql
  20.  
    engine=mysql
  21.  
    host=linux123
  22.  
    port=3306
  23.  
    user=root
  24.  
    password=12345678
  25.  
    name=hue
  26.  
    # 1003行左右,Hadoop配置文件的路径
  27.  
    hadoop_conf_dir=/opt/moudle/hadoop-2.9.2/etc/hadoop
  28.  
     
  29.  
    # 去mysql所在的机器上
  30.  
    # 在mysql中创建数据库hue,用来存放元数据
  31.  
    mysql -uroot -p12345678
  32.  
    mysql> create database hue;
  33.  
     
  34.  
    # 在hue目录中
  35.  
    # 初始化数据库,可以看到mysql的hue数据库下出现很多表
  36.  
    build/env/bin/hue syncdb
  37.  
    build/env/bin/hue migrate
  38.  
    # 以上两条命令,可能会出现密码错误的情况,需要保证密码正确的前提下,也要配置可以远程连接。在mysql中执行
  39.  
    SHOW VARIABLES LIKE 'validate_password%';
  40.  
    set global validate_password_length=8;
  41.  
    set global validate_password_policy=0;
  42.  
    GRANT ALL PRIVILEGES ON *.* to 'root'@'%' IDENTIFIED BY '12345678' WITH GRANT OPTION;
  43.  
    FLUSH PRIVILEGES;

6.启动Hue服务

  1.  
    # 在安装hue机器上增加 hue 用户和用户组
  2.  
    groupadd hue
  3.  
    useradd -g hue hue
  4.  
    # 在hue安装路径下执行
  5.  
    build/env/bin/supervisor
  6.  
    在浏览器中输入:IP地址:8000,可以看到页面

7.Hue整合Hadoop、Hive

修改desktop/conf/pseudo-distributed.ini文件
集成HDFS、YARN

  1.  
    # 211 行。 没有安装 Solr,禁用,否则一直报错
  2.  
    app_blacklist=search
  3.  
    # [hadoop] -- [[hdfs_clusters]] -- [[[default]]]
  4.  
    # 注意端口号。
  5.  
    fs_defaultfs=hdfs://hadoop1:9000 #namenode节点
  6.  
    webhdfs_url=http://hadoop1:50070/webhdfs/v1
  7.  
    # 211 行
  8.  
    hadoop_conf_dir=/opt/lagou/servers/hadoop-2.9.2/etc/hadoop
  9.  
    # [hadoop] -- [[yarn_clusters]] -- [[[default]]]
  10.  
    resourcemanager_host=hadoop2
  11.  
    resourcemanager_port=8032
  12.  
    submit_to=True
  13.  
    resourcemanager_api_url=http://hadoop2:8088
  14.  
    proxy_api_url=http://hadoop2:8088
  15.  
    history_server_api_url=http://hadoop3:19888 # 历史服务器地址

集成Hive
集成Hive需要启动 Hiveserver2 服务

  1.  
    # [beeswax]
  2.  
    hive_server_host=hadoop3
  3.  
    hive_server_port=10000
  4.  
    hive_conf_dir=/opt/moudle/hive-2.3.7/conf

集成MySQL

  1.  
    # [librdbms] -- [[databases]] -- [[[mysql]]];1639行
  2.  
    # 注意:1639行原文: ##[[mysql]] => [[mysql]];两个##要去掉!
  3.  
    [[[mysql]]]
  4.  
    nice_name="My SQL DB"
  5.  
    name=hue
  6.  
    engine=mysql
  7.  
    host=hadoop3
  8.  
    port=3306
  9.  
    user=root
  10.  
    password=12345678

最后重启服务

 转自:https://blog.csdn.net/u011250186/article/details/109474804

 
原文地址:https://www.cnblogs.com/javalinux/p/14925297.html