寒假自学进度14

总结一下前几天遇到的问题以及解决方案
1.为什么要将RDD转换为DataFrame?
因为这样的话,我们就可以直接针对HDFS等任何可以构建为RDD的数据,
使用Spark SQL进行SQL查询了。这个功能是无比强大的。针对HDFS中的数据,直接就可以使用SQL进行查询。

第一种方式,是使用反射来推断包含了特定数据类型的RDD的元数据。这种基于反射的方式,代码比较简洁,当你已经知道你的RDD的元数据时,是一种非常不错的方式。

第二种方式,是通过编程接口来创建DataFrame,你可以在程序运行时动态构建一份元数据,然后将其应用到已经存在的RDD上。这种方式的代码比较冗长,但是如果在编写程序时,还不知道RDD的元数据,只有在程序运行时,才能动态得知其元数据,那么只能通过这种动态构建元数据的方式。

链接:https://www.jianshu.com/p/4df4aa54ad15

2.centos彻底卸载mysql

https://www.cnblogs.com/leelice/p/10728129.html

3.构建简单的SparkSqL应用程序出错:object sql is not a member of package org.apache.spark

https://cloud.tencent.com/developer/ask/55890

 

原文地址:https://www.cnblogs.com/zzstdruan1707-4/p/12327771.html