SparkSQL 与 Spark Core的关系

  

  Spark SQL构建在Spark Core之上专门用来处理结构化数据(不仅仅是SQL)。即Spark SQL是Spark Core封装而来的!

  Spark SQL在Spark Core的基础上针对结构化数据处理进行很多优化和改进,

  简单来讲:

    Spark SQL 支持很多种结构化数据源,可以让你跳过复杂的读取过程,轻松从各种数据源中读取数据。

    当你使用SQL查询这些数据源中的数据并且只用到了一部分字段时,SparkSQL可以智能地只扫描这些用到的字段,而不是像SparkContext.hadoopFile中那样简单粗暴地扫描全部数据。

   可见,Spark Core与Spark SQL的数据结构是不一样的!

            

详细,请移步

Spark SQL概念学习系列之Spark SQL概述

原文地址:https://www.cnblogs.com/zlslch/p/6685679.html