Hadoop核心-HDFS

上一篇我们熟悉了hadoop,本篇讲解一下hadoop第一个核心HDFS。

一.概述

  HDFS是一个分布式文件存储系统,以流式数据访问模式存储超大文件,将数据分块存储到一个商业硬件集群内的不同机器上,通过目录树来定位文件,由多台服务器联合起来实现其功能,集群中的服务器有各自的角色。HDFS的设计适合一次写入,多次读出的场景,且不支持文件的修改。适合用来做数据分析,不适合做网盘应用。

二.优缺点

  1.优点

    *高容错性。数据自动保存多个副本,通过增加副本的形式,来提高容错性。当某一副本丢失后可以自动回复;

    *适合处理大数据。能够处理GB、TB、PB级别的数据和百万以上的文件数量;

    *可构建在廉价机器上,通过多副本机制,提高可靠性。

   2.缺点

    *不适合低延时数据访问。毫秒级的存储数据做不到;

    *无法高效的对大量小文件进行存储。它会占用namenode大量的内存来存储文件目录和块信息,但namenode内存是有限的;

    *不支持并发写入和文件随机修改,仅支持数据追加。

三.组成

   *NameNode(nn):主机器,管理HDFS的命名空间,存储元数据(包括ip,路径等数据的信息);

   *DataNode:存储实际的数据块,执行数据块的读写操作;

   *Secondary NameNode(2nn):并非namenode的热备,辅助namenode,分担其工作量,定期合并映射信息和日志推送给namenode;

   *Client:客户端,文件的切分、与namenode交互等。

四.文件块大小

  HDFS中的文件在物理上是分块存储的,块的大小可以通过配置参数来改变,修改hdfs-site.xml文件中的dfs.blocksize对应的值,hadoop2.x版本默认大小为128M,之前为64M。块的大小不能随机设置,太大会导致程序在处理块数据时非常慢,太小会增加寻址时间,一直在找块的开始位置。HDFS块的大小设置主要取决于磁盘传输速率。

五.数据流

  1.读数据流:

  

   *客户端通过 Distributed FileSyatem 向namenode 请求下载文件,namenoce通过查询元数据,找到文件块所在的datanode地址;

   *挑选一台最近的datanode(就近原则)服务器,请求读取数据;

   *datanode开始传输数据给客户端(从磁盘读取数据输入流,以packet为单位来做校验);

   *客户端以packet为单位来接收,现在本地缓存,然后写入到目标文件中。

   2.写数据流:

  

   *客户端通过 Distributed FileSyatem对象中的create函数来创建一个文件,向namenode请求上传文件,通过RPC调用在namenode命名空间中创建一个新文件;

   *NameNode通过多种校验该目标文件是否存在,并确保客户端拥有创建文件的权限,当通过所有验证后,namenode会创建一个文件来记录此信息,Distributed FileSyatem会返回一个文件输出流FSDataOutputStream来供客户端写入数据,客户端通过此来建立datanode和namenode之间的通信;

   *客户端请求第一个Block上传到哪几个datanode服务器上,namenode返回三个datanode节点分别为dn1、dn2、dn3;

   *FSDataOutputStream请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将通信管道建立完成;

   *各个dn逐级应答客户端;

   *客户端开始往dn1上传第一个Block,dn1接收到就会传给dn2,以此类推,知道最后一台datanode服务器;

   *在上传时,FSDataOutputStream会保存一个副包,用来等待其他包返回成功写入消息后删除副包。

六.数据副本存放策略与读取策略

   1.存放策略:HDFS采用一种称为机架感应的策略来改进数据的可靠性、可用性和网络带宽的利用率,默认的副本系数是3,将第一个副本存放在本地机架的节点上,将第二个副本存放在同一机架的另一个节点上,将第三个副本存放在不同机架的节点上。减少了机架间的数据传输,提高了写操作效率,机架的错误远远比节点的错误少,不会影响数据的可靠性和可用性。

   2.读取策略:因为数据块只放在两个(不是三个)不同的机架上,所以此策略减少了读取数据时需要的网络传输总带宽。为了降低整体的带宽消耗和读取延迟,HDFS尽量会让程序读取离它最近的副本(就近原则),如果读取时同一个机架上有一个副本,那么读取该副本。如果一个HDFS集群跨越多个数据中心,那么客户端首先读取本地数据中心的副本。

七.DataNode

  1.工作机制

  

   *一个数据块在datanode上以文件形式存储在磁盘上,包括两个文件:一个是数据本身,一个是元数据(数据长度、校验和...);

   *datanode启动后向namenode注册,通过后,周期性(1h)的向namenode上报所有块信息;

   *每3s发一次心跳(带有namenode给该datanode的命令,如复制块数据到另一台机器上),如果超过10分钟没收到datanode的心跳,则认为该节点不可用;

   *集群运行中可以安全加入和退出一些机器。

   2.数据完整性

     *当datanode读取Block的时候,它会计算CheckSum校验和;

     *如果计算后的CheckSum,与Block创建时值不一样,说明Block已经损坏;

     *Client读取其他datanode上的Block;

     *datanode在其创建文件后周期验证CheckSum校验和。

八.NameNode / Secondary NameNode

   1.工作机制

   

    第一阶段:

    *第一次启动namenode格式化后,创建Fsimage(镜像文件)和Edits(编辑日志)。如果不是第一次,直接加载镜像文件和编辑日志到内存;

    *客户端对元数据进行增删改查的请求;

    *namenode记录操作日志,更新滚动日志;

    *namenode在内存中对元数据进行增删改查。

    第二阶段:

    *secondary namenode 询问namenode 是否需要CheckPoint检查站,直接带回namenode是否检查结果;

    *secondary namenode请求执行CheckPoint;

    *namenode滚动正在写的edits编辑日志;

    *将滚动前的编辑日志和镜像文件拷贝到secondary namenode;

    *secondary namenode加载编辑日志和镜像文件到内存中并合并;

    *生成新的镜像文件fsimage.chkpoint,拷贝到namenode;

    *namenode将fsimage.chkpoint重命名为fsimage。

     2.Fsimage和Edits

    *Fsimage镜像文件:HDFS文件系统元数据的一个永久性检查点,其中包含HDFS文件系统的所有目录和文件inode的序列化信息;

    *Edits:存放HDFS文件系统的所有更新操作路径,文件系统客户端执行的所有写操作首先会被记录到Edits文件中。

    *每次namenode启动时都会将Fsimage文件读入内存,加载Edits里面的更新操作,保证内存中的元数据信息是最新的、同步的。可以看成namenode启动时就将fsimage和edits文件进行合并。

下一篇我们接着讲关于hadoop第二个核心-MapReduce分布式计算。

原文地址:https://www.cnblogs.com/wujialiang/p/14155707.html