最近在一个项目中做数据的分类存储,在spark中使用groupByKey后存入HBase,发现数据出现双份( 所有记录的 rowKey 是随机 唯一的 ) 。经过不断的测试,发现是spark的运行参数配置的问题:
spark.speculation=true , 将其改为false,问题就解决了。哎 , spark运行参数得修改要慎重...
最近在一个项目中做数据的分类存储,在spark中使用groupByKey后存入HBase,发现数据出现双份( 所有记录的 rowKey 是随机 唯一的 ) 。经过不断的测试,发现是spark的运行参数配置的问题:
spark.speculation=true , 将其改为false,问题就解决了。哎 , spark运行参数得修改要慎重...