Spark 的主要抽象是分布式的元素集合(distributed collection of items),称为RDD(Resilient Distributed Dataset,弹性分布式数据集),它可被分发到集群各个节点上,进行并行操作。RDDs 可以通过 Hadoop InputFormats 创建(如 HDFS),或者从其他 RDDs 转化而来。
从 ./README 文件新建一个 RDD,代码如下
val textFile = sc.textFile("file:///usr/local/spark/README.md")
上述命令的输出结果如下图所示