大数据学习——hdfs集群启动

第一种方式:

1 格式化namecode(是对namecode进行格式化)

hdfs namenode -format(或者是hadoop namenode -format)

进入 cd /root/apps/hadoop/tmp/dfs/name/current

启动namecode    hadoop-daemon.sh start namenode

启动datanode     hadoop-daemon.sh start datanode

其他两台机器也执行下  hadoop-daemon.sh start datanode

mini1启动sn:

hadoop-daemon.sh start secondarynamenode

第二种方式:

先启动hdfs

sbin/start-dfs.sh

再启动yarn

sbin/start-yarn.sh

验证是否启动成功

1 jps查看进程

2 http://192.168.74.100:50070 查看

3 上传一个文件测试一下

hdfs dfs -put seen_txid /

打开 http://192.168.74.100:50070 utilities——Brows the file system 可以查看到上传的文件

Browse Directory

 集群关闭

1 手动关闭

2 一键关闭

cd /root/apps/hadoop/sbin/

stop-dfs.sh

配置 slaves

vi salves

写入

mini1

mini2

mini3

保存退出

mv ./slaves /root/apps/hadoop/etc/hadoop/ 

 拷贝到另外两台机器

scp -r /root/apps/hadoop/etc/hadoop/slaves root@mini2:/root/apps/hadoop/etc/hadoop/

 scp -r /root/apps/hadoop/etc/hadoop/slaves root@mini3:/root/apps/hadoop/etc/hadoop/

一键启动集群

start-dfs.sh 

一键关闭集群

stop-dfs.sh

原文地址:https://www.cnblogs.com/feifeicui/p/10168212.html