(三)spark集群DHCP IP变化后的处理

  学校的网比较特殊(本人比较菜),需要DHCP获得地址,那么有时候IP被占用了,应该如何应对呢?

  1)修改/etc/hosts

    

  2) 修改spark-env.sh 里的 Master 地址 ,Master对应spark1 的地址 ,source使其 生效

  3)hdfs启动若有问题,则删掉 tmp ,data 重新建立相应文件夹,并且格式化 namenode #hadoop namenode -format,再启动就好

  按照以上步骤处理完毕,应该就没问题了

原文地址:https://www.cnblogs.com/ooon/p/5578802.html