Hadoop中HDFS和MapReduce的启动问题

  当你在启动HDFS和MapReduce的时候,大家都可能习惯了,

只要在其中一台关联的虚拟机上启动,或者是在含有namenode的机器上进行启动。

启动的方法可以分别启动dfs和yarn,如start-dfs.sh,start-yarn.sh;也可以一起启动,start-all.sh。

  然后会jps查看一下启动的情况,如果你够幸运,所有的节点node和manager都会启动,

但是如果你发现,你的启动情况只有节点node启动正常,而resourceManager却无法启动。

无论你重新启动,或者是关机重启,都无法启动到resourceManager。你可能会去查看配置文件,但是

你会发现,无论你对配置文件做了些什么,似乎都起不到作用。

  那么,这么多废话后,关键来了,如何解决:

1、首先,你要清楚的知道,当初你配置文件时,resourceManager的位置是哪台机器。即value的设置。

2.在你设置resourceManager所在的机器上启动yarn。

这样才会正常生效。这个问题困扰了我三个月之久,今天终于得到解决,并对其进行了验证,验证有效。

原文地址:https://www.cnblogs.com/qianshuixianyu/p/9455401.html