Spark Streaming流计算核心概念

一.DStreams【离散流】  

  DStreams或离散流是Spark Streaming提供的基本抽象。它表示连续的数据流,可以是从源接收的输入数据流,也可以是通过转换输入流生成的已处理数据流。在内部,DStream由一系列连续的RDD表示,这是Spark对不可变的分布式数据集的抽象。DStream中的每个RDD都包含来自特定间隔的数据,如下图所示:

  

  在DStream上执行的任何操作都转换为对基础RDD的操作。举例来说, 在基础案例WordCount中,flatMap操作应用于LinesDStream中的每个RDD以生成DStrem的wordsRDD。如下图所示:

  

  这些基础的RDD转换由Spark引擎计算。DStream操作隐藏了大多数的细节,并为开发人员提供了更高级别的API,以方便使用。

二.输入DStreams和接收器

  输入DStream是表示从流源接收的输入数据流的DStream。在https://www.cnblogs.com/yszd/p/10673277.html第三章的案例中,lines输入DStream代表从netcat服务器接收的数据流。每个输入DStream【文件流除外】都与一个Receiver对象关联,该对象从源接收数据并将其存储在Spark的内存中以进行处理。

  Spark Streaming提供了两类内置的流数据源

  1.基本来源

    可直接在StreamingContext API中获得的来源。例如:文件系统和套接字连接。

  2.高级来源

    可以通过其他实用程序获得诸如Kafka、Flume、Kinesis等来源。它们需要针对额外的依赖项进行连接。

  注意,要是在流应用程序中并行接收多个数据流,则可以创建多个输入DStream。这将创建多个接收器,这些接收器将同时接收多个数据流。但是请注意,Spark工作程序/执行程序是一项长期运行的任务,它占用了分配给Spark Streaming应用程序的资源。因此,必须为Spark Streaming应用程序分配足够的内核【或者线程,若本地执行】,以处理接收到的数据并运行接收器。

  要记住的要点

  1.在本地运行Spark Streaming程序时,请勿使用local或者local[1]作为主URL。这两种方式均意味着仅有一个线程用于本地运行任务。如果要基于接收器的输入DStream,则将使用单个线程来运行接收器,而不会留下任何线程来处理接收到的数据。因此,在本地运行时使用local[n]作为主URL,其中n>要运行的接收器数。

  2.为了将逻辑扩展到在集群上运行,分配给Spark Streaming应用程序的内核数必须大于接收器数。

  文件流

  要从与HDFS API兼容的任何文件系统【即HDFS,S3,NFS等】上的文件中读取数据,可以通过:

  StreamingContext.fileStream[KeyClass, ValueClass, InputFormatClass](dataDirectory)

  文件流不需要运行接收器,因此无需分配任何内核来接收文件数据。

  对于简单的文本文件,最简单的方法是:
  StreamingContext.textFileStream(dataDirectory)

  注意事项

  Spark Streaming将监控目录dataDirectory并处理在该目录中创建的所有文件。

  1.可以监控一个简单的目录,例如:hdfs://namenode:8040/logs/。发现后,将直接处理该路径下的所有文件。

  2.模式匹配,例如:hdfs://namenode:8040/logs/2017/*。在此,DStream将包含与模式匹配的目录中的所有文件。匹配的是目录。

  3.所有的文件必须使用相同的数据格式。  

  4.根据文件的修改时间而非创建时间,将其视为时间段的一部分。

  5.处理后,在当前窗口中对文件的更改将不会导致重新读取该文件。也就是说,忽略更新。

  6.目录下的文件越多,扫描更改所需的时间就越长,即使未修改任何文件。

  7.如果使用通配符来标示目录,例如:http://namenode:8040/logs/2016_*,则重命名整个目录以匹配路径会将目录添加到受监控目录列表中。流中仅包含目录中修改时间在当前窗口内的文件。

  8.调用FileSystem.setTimes()修复时间戳是一种在以后的窗口中拾取文件的方法,即使其内容没有更改。

  使用对象存储作为数据源

  HDFS之类的完整文件系统往往会在创建输出流后立即对其文件设置修改时间。当打开文件时,甚至在完全写入数据之前,该文件也可能不在DStream之中,将忽略同一窗口中对该文件的更新。也就是说,更改可能会丢失,流中将会忽略数据。为了确保在窗口中可以接收到更改,请将文件写入到一个不受监控的目录,然后关闭输出流后立即将其重命名为目标目录。如果重命名的文件在创建窗口期间显示在扫描的目标目录中,则将提取新数据。

  相反,由于实际复制了数据,因此诸如Amazon S3和Azure存储之类的对象存储通常具有较慢的重命名操作。此外,重命名的对象可能具有将重命名时间作为其修改时间的功能,因此可能不被视为原始创建时间所暗示的窗口部分。需要对目标对象存储进行详细的测试,以验证存储的时间戳行为与Spark Streaming期望是否一致。直接写入目标目录可能是通过所选对象存储流传输数据的适当策略。

  基于自定义接收器的流

  可以使用通过自定义接收器接收的数据流来创建DStream。

  RDD队列作为流

  为了使用测试数据测试Spark Streaming应用程序,还可以使用基于RDD队列创建DStream:

  streamingContext.queueStream(queueOfRDDs

  推送到队列中的每个RDD将被视为DStream中的一批数据,并像流一样进行处理。

  进阶资源

  Python API从Spark2.4.4开始提供上述来源中的Kafka,Kinesis和Flume的接口。

  这类资源需要与外部非Spark库进行交互,其中一些库具有复杂的依赖关系。因此,为了最大限度地减少与依赖项版本的冲突,从这些源创建DStream的功能已移至单独的库,可以在必要时将其显式连接。

  请注意,Spark Shell中没有这些高级源,因此无法在Shell中测试基于这些高级源的应用程序。如果想在Spark Shell中使用它们,则必须下载相应的Maven工件的JAR以及依赖项,并将其添加到类路径中。

  其中一些高级源如下:

  1、Kafka:Spark Streaming 2.4.4与0.8.2.1及更高版本的Kafka兼容。

  2、Flume:Spark Streaming 2.4.4与Flume1.6.0兼容。

  3、Kinesis:Spark Streaming 2.4.4与Kinesis Client Library 1.2.1兼容。

  自定义源

  Python API 尚不支持此功能。

  输入DStream也可以从自定义数据源中创建。所需要做的就是实现一个用户定义的接收器,该接收器可以接收来自自定义源的数据并将其推送到Spark中。

  接收器的可靠性

  根据其可靠性,可以将数据源分为两种,一种是源允许确认传输的数据【例如:Kafka和Flume】,那这种源是可靠的数据源,从这些数据源接收数据的系统正确地确认了接收到的数据,则可以确保不会由于任何类型的故障而丢失数据。另一种是不需要确认的源【例如Socket】。如果从可靠的数据源中接收数据,那么这个接收器就为可靠的接收器,可靠的接收器在接收到数据并通过复制将其存储在Spark中后,可以正确地将确认发送到可靠的数据源。而一个不可靠的接收器并没有发送确认的资源,它可以用于不支持确认的数据源,甚至用于不希望或不需要确认这样复杂的数据源。

原文地址:https://www.cnblogs.com/yszd/p/12246439.html