问题:
今天用Maven搭建了一个Spark的Scala项目,运行后遇到下面异常:
Apache Spark Exception in thread “main” java.lang.NoClassDefFoundError: scala/collection/GenTraversableOnce$class
原因:
pom文件中引用了错误的spark版本
解决:
修改
<artifactId>spark-core_2.10</artifactId>
<artifactId>spark-streaming_2.10</artifactId>
为:
<artifactId>spark-core_2.11</artifactId>
<artifactId>spark-streaming_2.11</artifactId>