Hadoop 部署之环境准备(一)

一、软硬件规划

ID 主机类型 主机名 IP 应用软件 操作系统 硬件配置
1 物理机 namenode01 192.168.1.200 jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1 CentOS7.4 6核CPU、8G内存、250存储
2 物理机 datanode01 192.168.1.201 jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1 CentOS7.4 6核CPU、8G内存、250存储
3 物理机 datanode02 192.168.1.202 jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1 CentOS7.4 6核CPU、8G内存、250存储
4 物理机 datanode03 192.168.1.203 jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1 CentOS7.4 6核CPU、8G内存、250存储

我这里规划的角色不是太好,如果是四台机器,建议大家按照我们下面的分配

  • ZooKeeper
    ZooKeeper Server:namenode01
  • HDFS
    NameNode:namenode01
    SecondaryNameNode:namenode01
    DataNode:datanode[01-03]
  • YARN
    ResourceManager:namenode01
    NodeManager:datanode[01-03]
  • HBase
    Master:namenode01
    RegionServer:datanode[01-03]
  • Hive
    HiveServer2:namenode01
    Hive Metastore Server:namenode01
  • Spark
    Master:namenode01
    Worker:datanode[01-03]

二、主机名解析

修改四台服务器的主机名。

192.168.1.200 namenode01 hbase01 spark01 hive01 cluster1
192.168.1.201 datanode01 hbase02 spark02 zk01 mysql01
192.168.1.202 datanode02 hbase03 spark03 zk02
192.168.1.203 datanode03 hbase04 spark04 zk03

三、配置 SSH 互信

在namenode01节点上面进行操作。

ssh-keygen -t rsa
ssh-copy-id namenode01
ssh-copy-id datanode01
ssh-copy-id datanode02
ssh-copy-id datanode03

四、创建用户

创建用户(4台机器相同操作)

useradd hadoop && echo '123456' |passwd --stdin hadoop

使用命令visudo设置用户权限(4台机器相同操作),添加如下内容:

hadoop    ALL=(ALL)       ALL

五、JDK 的安装

下载JDK1.8,可以选择下载rpm包,直接安装即可使用。
https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

原文地址:https://www.cnblogs.com/wzlinux/p/10183294.html