Apache Flink 数据流编程模型

1.抽象层次

  • Flink提供不同的抽象级别开发流/批处理应用程序。
  • 最底层提供有状态流,嵌入到DataStream数据API函数。它允许用户自由从一个或多个流处理事件。
  • Table API是一种围绕表的声明性DSL,可以动态的改变表,无缝的在表和DataStream/DataSet之间转换。

2.程序与数据流

  • 数据流的基本模块是流和转换。

3.并行数据流

  • 程序在Flink中是并行的和分布式的。
  • one-to-one或者redistributing模式中,流可以在两个运算符之间转换数据。
  • One-to-one streams(像在Source和map()之间的):保存着元素的分区和顺序。
  • Redistributing streams(像在map() and keyBy/window 或者在keyBy/window and Sink之间的):改变了流的分区,在重新分配模式中,元素之间的排序仅在每对发送和接收子任务中保留。

4.窗口

  • 流一般是无限的。
  • 窗口可以是时间驱动或者数据驱动的

5.时间

  • Event Time:事件时间    是一个事件产生的时候的时间,通常被一个时间戳描绘。
  • Ingestion time:摄入时间     是在源操作符,当一个事件进入Flink流时。
  • Processing Time:处理时间   是本地时间,在每个操作符执行基于时间的操作。

6.状态操作

7.检查点的容错

  • Flink使用stream replay和checkpointing的组合实现容错。
  • 通过重新从检查点恢复运算符状态和读重演事件,流数据流可以从一个检查点恢复,从而保持一致性。

8.流中的批处理

  • Flink执行批处理程序当做流处理程序的特殊情况(流是有界的)。
  • 一个数据集在Flink内部中作为数据流。
  • 批处理程序的容错不使用检查点。恢复通过完全重演流,因为流是有限的,所以这是可能的。
  • 在DataSet API中使用简化内存/核外的数据结构,而不是key/value 索引
原文地址:https://www.cnblogs.com/ooffff/p/9416174.html