CentOS6.9安装HDFS

1、安装依赖包

yum install -y gcc openssh-clients

2、升级glib2.14

升级glibc-2.14用到的rpm

下载地址:https://pan.baidu.com/s/1v-Uk579TGM6498cExst6ow

开始升级glib2.14

rpm -Uvh glibc-2.14.1-6.x86_64.rpm glibc-common-2.14.1-6.x86_64.rpm glibc-headers-2.14.1-6.x86_64.rpm glibc-devel-2.14.1-6.x86_64.rpm nscd-2.14.1-6.x86_64.rpm

查看glib版本

ldd --version

3、配置jdk1.8

下载地址:https://pan.baidu.com/s/1wCJ4P3049nJyOCQDu8PYzw

将gz包放在/usr/local下

tar zxvf jdk-8u161-linux-x64.tar.gz
mv jdk1.8.0_161 jdk

配置/etc/profile文件,在最后增加如下内容

vi /etc/profile

export JAVA_HOME=/usr/local/jdk
export JRE_HOME=/usr/local/jdk/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$PATH

让配置生效

source /etc/profile

4、配置hosts文件

先用hostname获取机器名

vi /etc/hosts

配置机器的IP和机器名

5、设置ssh-keyge

ssh-keygen -t rsa

一路回车

cd /root/.ssh
cat id_rsa.pub >>authorized_keys

6、开始安装hadoop

下载地址:https://pan.baidu.com/s/1Q0171QSfL1E6AgaQs2tQ9g

将gz包放在/usr/local下

tar zxvf hadoop-3.0.0.tar.gz
mv hadoop-3.0.0 hadoop

创建目录

mkdir -p /usr/local/hadoop/tmp
mkdir -p /usr/local/hadoop/hdfs/name
mkdir -p /usr/local/hadoop/hdfs/data

修改配置文件

vi /usr/local/hadoop/etc/hadoop/core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://10.10.6.170:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
    </property>
</configuration>

vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml

<configuration>
    <property>  
        <name>dfs.replication</name>
        <value>1</value>
    </property> 
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/hdfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/hdfs/data</value>
    </property>  
</configuration>

vi /usr/local/hadoop/sbin/start-dfs.sh
vi /usr/local/hadoop/sbin/stop-dfs.sh

这两个文件的第二行增加下如内容:

HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

vi /usr/local/hadoop/etc/hadoop/hadoop-env.sh

在55行左右增加如下内容

export JAVA_HOME=/usr/local/jdk/

执行HDFS的格式化

/usr/local/hadoop/bin/hadoop namenode -format

启动HDFS

/usr/local/hadoop/sbin/start-dfs.sh

出现Warning没关系,停止HDFS再启动就没有了

停止HDFS

/usr/local/hadoop/sbin/stop-dfs.sh

简单使用

cd /usr/local/hadoop/bin

查看根目录下的空间使用情况

./hadoop fs -df -h /

 

使用touchz创建一个空文件

./hadoop fs -touchz /hello

查看根目录下的文件

./hadoop fs -ls /

使用put从其他目录拷贝一个文件到HDFS根目录下

./hadoop fs -put /usr/local/jdk-8u161-linux-x64.tar.gz /

再次查看根目录下的文件

./hadoop fs -ls /

原文地址:https://www.cnblogs.com/kgdxpr/p/8616565.html