Spark程序使用groupByKey后数据存入HBase出现重复的现象

  最近在一个项目中做数据的分类存储,在spark中使用groupByKey后存入HBase,发现数据出现双份( 所有记录的 rowKey 是随机  唯一的 ) 。经过不断的测试,发现是spark的运行参数配置的问题:

 spark.speculation=true , 将其改为false,问题就解决了。哎  , spark运行参数得修改要慎重...

原文地址:https://www.cnblogs.com/jechedo/p/5114152.html