四、spark常用函数说明学习

1、parallelize
      并行集合,切片数。默认为这个程序所分配到的资源的cpu核的个数。
      查看大小:rdd.partitions.size
     sc.paralielize(1 to 100,2)
 
2、rdd持久化
  persist()
   cache()
http://www.cnblogs.com/ylcoder/
原文地址:https://www.cnblogs.com/ylcoder/p/5730958.html