Hadoop完全分布式环境配置

Step 1:配置hosts文件(/etc/hosts)--(实际考虑:是否使用DNS替代?)

使用awk 自动copy

cat slaves.txt |awk 'print{"scp -rp ./hadoop.1.2 hadoop@"$1":/home/hadoop}'

Step 2:建立Hadoop运行账号

Step 3:配置Hadoop免密码登陆--(NFS)

Step 4:安装JDK

Step 5:安装Hadoop

Step 6:配置NameNode,修改Site 配置文件

  hadoop-env.sh

  core-site.xml

  hdfs-site.xml

  mapred-site.xml

  masters

  slaves

Step 7:配置hadoop-env.sh

Step 8:配置master 和Slaves 文件

Step 9:向各个节点复制hadoop

Step 10:格式化Namenode(hadoop namenode -format)

Step 11:启动hadoop(start-all.sh)

Step 12:jps命令检查是否成功

原文地址:https://www.cnblogs.com/conie/p/3725159.html