行存储与列存储及数据存储格式知识点

行存储 与 列存储

行业业务集中焦点:
  • 有效地处理海量数据
  • 兼顾安全, 可靠, 完整性
  • example: HBase采用列存储, MongoDB采用文档型的行存储, Lexst采用二进制的行存储
列存储(column-based)

传统关系型数据库行式存储(Row-based storage storestable in a sequence of rows)

列存储(Column-based storage storesatable in a sequence of columns)

img

行式存储下一张表的数据是放在一起的, 但列式存储下都被分开保存了。

数据写入对比
  • 行存储的写入是一次完成。如果这种写入建立在操作系统的文件系统上, 可以保证写入过程的成功或者失败, 数据的完整性因此可以确定。
  • 列存储由于需要把一行记录拆分成单列保存, 写入次数明显比行存储多(意味着磁头调度次数多, 而磁头调度需要时间, 一般在1ms ~ 10ms), 再加上磁头需要在盘片上移动和定位话费的时间, 实际时间消耗会更大。所以, 行存储在写入上占有很大的优势。
  • 数据修改实际上也是一次写入过程。区别是数据修改是对磁盘上的记录做删除标记。行存储是在指定位置写入一次, 而列存储是将磁盘定位到多个列上分别写入, 这个过程仍是行存储的列数倍, so数据修改也是行存储占优势。
数据读取对比
  • 数据读取时, 行存储通常将一行数据完全读出, 如果只需要其中几列数据的情况, 就会存在冗余列, 出于缩短处理事件的考量, 消除冗余列的过程通常是在内存中进行的。
  • 列存储每次读取的数据是集合的一段或者全部, 不存在冗余性问题
  • 两种存储的数据分布。由于列存储的每一列数据类型是同质的, 不存在二义性问题。For instance, 某列数据类型为int(整形), 那么它的数据集合一定是整形数据。这种情况使数据解析变得十分容易。相比之下, 行存储反而要复杂不少, 因为在一行记录中保存了多种类型的数据, 数据解析需要在多种数据类型之间频繁转化,而该操作很吃cpu, 增加了解析的时间。所以, 类存储的解析过程更有利于分析大数据。
  • 数据的压缩以及更性能的读取方面对比

img

img

优缺点
  • 行存储:
    • 优点: 行存储的写入是一次性完成的, 消耗的时间比列存储少, 并且能够保证数据的完整性
    • 缺点: 数据读取过程中会产生冗余数据, 如果只看少量数据, 此影响可以忽略; 数量大可能会影响数据的处理效率
  • 列存储:
    • 优点: 在读取过程中, 不会产生冗余数据, 这对数据完整性要求不高的大数据处理领域尤为重要(i.e. 互联网)
    • 缺点: 写入效率, 保证数据完整性上都不如行存储
列存储的适用场景

概念

  • OLTP (OnLine TransactionProcessor) 在线联机事务处理系统: mysql, oracle...
  • OLAP (OnlLine AnalaysierProcessor) 在线联机分析处理系统: Hive, HBase...

img

(1). 一般来说, 一个OLAP类型的查询可能需要访问几百万甚至几十亿个数据行, 且该查询往往只关心少数几个数据列, 而其他数据列对该查询是无意义的。

(2). 很多列式数据库还支持列族(column group[locality group]), 即将多个经常一起访问的数据列的各个值存放在一起。如果读取的数据列属于相同的列族, 列式数据库可以从相同的地方一次性读取多个数据列的值, 避免了多个数据列的合并。列族是一种行列混合存储模式, 这种模式能够同时满足OLTP和OLAP的查询需求。

(3). 由于同一数据列的数据重复度很高, 因此, 列式数据库压缩时有很大的优势.

(4). 如果每次查询涉及的数据量较小或者大部分查询都需要整行的数据, 列式数据库并不适用。

行存储与类存储总结:

行式存储数据库:

  • 数据是按行存储的。
  • 没有索引的查询使用大量I/O。一般的数据库表都会建立索引, 通过索引加快查询效率。
  • 建立索引和物化视图需要花费大量的时间和资源。
  • 面对查询需求, 数据库必须被大量膨胀才能满足需求。

列式存储数据库:

  • 数据按列存储, 即每一列单独存放。
  • 数据即索引。
  • 只访问查询涉及的列, 可以大量降低系统I/O。
  • 每一列有一个线程来处理, 即查询的并发处理性能高。
  • 数据类型一致, 数据特征相似, 可以高效压缩。 比如增量压缩, 前缀压缩算法都是基于列存储的类型定制的, 所以可以大幅度提高压缩比, 有利于存储和减少网络输出数据带宽的消耗。

数据存储格式

  • Avro Data Files

    • avro是一个数据序列化系统, 它提供:
      • 丰富的数据结构
      • 快速可压缩的二进制数据格式
      • 存储持久数据的文件容器
      • 远程过程调用RPC
      • 简单的动态语言结合功能
      • 实现模式:
        • 二进制编码: Avro-specific 方式依赖代码(文件)生成特定类, 并内嵌JSON Schema
        • JSON编码: Avro-generic 方式通过JSON文件动态加载Schema, 不需要编译加载直接就可以处理新的数据源
  • Sequence Files

    • 描述:
      • 是Hadoop用来存储二进制形式的key-value对而设计的一种平面文件(Flat File)
    • 特点:
      • 并不保证其存储的key-value数据是按照key的某个顺序存储的, 同时不支持append操作
      • 每一个key-value被看作是一条记录(Record), 因此基于Record的压缩策略, SequeneceFile文件可支持三种压缩类型:
        • NONE: 对records不进行压缩
        • RECORD: 仅压缩每一个record中的value值
        • BLOCK: 将一个block中的所有records压缩在一起
      • 对应的Hadoop提供的三种类型的Writer
        • SequenceFile.Writer 写入时不压缩任何的key-value对(Record);
        • SequenceFile.RecordCompressWriter 写入时只压缩key-value对(Record)中的value;
        • SequenceFile.BlockCompressWriter 写入时将一批key-value对(Record) 压缩成一个Block
  • Parquet Files

    • 描述:

      • Apache Parquet is a columnar storage format available to any project in the Hadoop ecosystem, regardless of the choice of data processing framework, data model or programming language

      ​ 无论数据处理框架,数据模型或编程语言的选择如何,Apache Parquet都是Hadoop生态系统中任何项目可用的列式存储格式

    • 特点:

      • 可以跳过不符合条件的数据, 只读取需要的数据, 降低IO数据量
      • 压缩编码可以降低磁盘存储空间
      • 只读取需要的列, 支持向量运算, 能够获取更好的扫描性能
      • Parquet 格式是Spark SQL 的默认数据源, 可通过spark.sql.sources.default 配置
  • ORC(Optimized Row Columnar) Files

    • Hadoop生态圈中的列式存储格式, 最初产生自Apache Hive, 用于降低Hadoop数据存储空间和加速Hive查询速度

    • 物理视图(HDFS)

    img

    • 逻辑视图

    img

    • 结构块:
    1. block
    2. stripe
    3. row_group
    4. stream
    5. index
    6. data
    7. Row data
    8. fileFooter
    9. postscript
    • 存储结构
      • orc在hdfs上存储, 为适应hdfs区块存储思想会将orc文件划分为block块
      • orc的block块大小一般和hdfs的block大小一致,通过配置(hive.exec.orc.default.block.size 默认256M) 指定
      • 每个block块中包含多个stripe, stripe大小通过参数 (hive.exec.orc.default.stripe.size 默认64M)
      • 应尽量避免stripe跨hdfs: block存储, 否则在解析stripe时会存在IO跨节点的数据请求, 从而增加系统资源开销
      • 一般orc: block块大小是orc:stripe大小的整数倍。但是在有些情况下是会出现block块不能被整数个stripe完整填满, 需要关闭跨hdfs:block的数据存储。(hive.exec.orc.default.block.padding=false)关闭块存储 另外需要指定最小磁盘利用空间( hive.exec.orc.block.padding.tolerance 默认0.05,例如orc:block=256M,256*0.05=12.5M),hdfs:block块剩余磁盘空间低于此值将放弃使用
原文地址:https://www.cnblogs.com/ronnieyuan/p/11649590.html