在写Spark程序是遇到问题
Driver stacktrace:
at org.apache.spark.scheduler.DAGScheduler.orgapacheapachesparkschedulerschedulerDAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1283)
这个原因是因为数据过大,而中断(我的天,坑死我了,只有一万条数据啊)
在写Spark程序是遇到问题
Driver stacktrace:
at org.apache.spark.scheduler.DAGScheduler.orgapacheapachesparkschedulerschedulerDAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1283)
这个原因是因为数据过大,而中断(我的天,坑死我了,只有一万条数据啊)