【基础组件9】hadoop入门(二)启动节点、集群、hdfs查看文件系统、清数据

 

1、初始化集群

要启动Hadoop集群,需要启动HDFS和YARN两个集群

注意:首次启动HDFS时,必须对其进行格式化操作。本质上是一些清理和准备工作, 因为此时的HDFS在物理上还是不存在的

命令:hdfs namenode  -format或hadoop namenode  -format

(拓展:多初始化了一次会导致datanode启动失败,解决办法:https://blog.csdn.net/gis_101/article/details/52679914)

 

cd /usr/local/hadoop/sbin

1)单个节点逐个启动

在主节点上使用以下命令启动HDFS NameNode:

Hadoop-daemon.sh start namenode

在每个从节点上使用以下命令启动HDFS DataNode:

Hadoop-daemon.sh start datanode

2)脚本一键启动

如果配置了etc/hadoop/slaves和ssh免密登陆,则可以实用程序脚本启动所有Hadoop两个集群的相关进程,在主节点上所设定的机器上执行

hdfs:hadoop-2.7.6/sbin/(在sbin目录下执行)start-dfs.sh

原文地址:https://www.cnblogs.com/Agnes1994/p/12222241.html