hdfs默认数据存放路径

1.{hadoop.tmp.dir}:/tmp/hadoop-{user.name}

  修改路径到当前用户目录下:

    /home/lyxy/tmp/hadoop

  注意:格式化的含义-->创建dfs/name/fsimage和edits文件,针对namenode守护进程的。

  开启namenode守护进程失败:

    a.重新格式化,原有HDFS的数据全部删除掉(不建议使用)

    b.复制{/tmp/hadoop-hyxy/dfs/name}到{/home/hyxy/tmp/hadoop/dfs}路径下,重新开启namenode守护进程,问题解决,因为namenode守护进程开启的时候需要加载fsimage和edits文件到内存,然而找不到这两个文件,所以开启失败。

2.查看系统日志

  {HADOOP_HOME/logs}

3.分别设置dfs相关目录,在hdfs-default.xml

  name目录

    <property>

      <name>dfs.namenode.name.dir</name>

      <value>file://${hadoop.tmp.dir}/dfs/name,file://${hadoop.tmp.dir}/dfs/name1</value>
      <description>
        确定DFS名称节点应在本地文件系统的哪个位置存储名称表(fsimage)。
       如果这是一个以逗号分隔的目录列表,则名称表将被复制到所有目录中,以实现冗余
       </description>
    </property>

  data目录

    <property>

      <name>dfs.datanode.data.dir</name>
      <value>file://${hadoop.tmp.dir}/dfs/data</value>
      <description>
确定DFS数据节点应该在本地文件系统上存储块的位置。
  如果这是以逗号分隔的目录列表,则数据将存储在所有已命名的目录中,通常位于不同的设备上。 应该为HDFS存储策略标记相应的存储类型([SSD] / [磁盘] / [存档] / [RAM_DISK])。
如果目录没有显式标记存储类型,则默认存储类型为DISK。 如果本地文件系统权限允许,则不存在的目录将被创建。
      </description>
    </property>

  namesecondary目录

    <property>

      <name>dfs.namenode.checkpoint.dir</name>
      <value>file://${hadoop.tmp.dir}/dfs/namesecondary</value>
      <description>
确定本地文件系统上DFS辅助名称节点应该存储要合并的临时图像的位置。
  如果这是一个以逗号分隔的目录列表,则图像将复制到所有目录中以实现冗余。
      </description>
    </property>

原文地址:https://www.cnblogs.com/lyr999736/p/9228752.html