Spark的相关概念说明和检查点机制

一:相关概念的说明

  1.application应用:
    一个App包含:一个driver(驱动器)、cluster manager(集群管理器)、一个或多个Exector(执行器)
    spark中的App可以构建多个Job,而Job间的调用遵循{Scheduling Mode: FIFO}先进先出模式;
    在App应用中,触发Action(行动操作)时,创建Job;
  2.driver(驱动器):
    一般情况下,可以把SparkContext理解为驱动器;
  3.Job作用:
    每个Job都将执行spark的相关调度:
    触发Action时,开启Job作业,并通过宽依赖对RDD进行Stage划分,一个Job可以包含一个或多个Stage;
    而每个Stage由一个或多个Task任务组成;Task任务数由partition数决定;程序中可根据需求修改partition

二:检查点checkpoint

  1.缓存Cache对RDD进行内存缓存处理,但不对RDD进行相关操作。
  2.checkpoint物化处理:
    a.将RDD存储到物理磁盘上,以二进制流的方式。
    b.物化后,RDD的依赖关系以及RDD本身将不复存在。
  3.实现物化操作,需完成以下两个操作(a,b):
    a.必须指定checkpoint的路径,如果不指定,将抛异常;
    b.物化操作(checkpoint)为转换操作,所以执行Action操作之后才进行物化,RDD计算将执行两次。
    c.一般情况下,在checkpiont之前做cache()后,将缓存内容直接输出至物化地址;

原文地址:https://www.cnblogs.com/lyr999736/p/10361973.html