1、安装jdk
因为spark是依赖java环境的,所以在安装spark之前你先确保你的电脑上有java环境。
具体怎么操作,百度"jdk安装"
2、安装spark
首先到官网下载相应的spark版本,建议直接使用spark集成环境
官网:http://spark.apache.org/downloads.html
我选择的是 spark-1.6.0-bin-hadoop2.4.tgz
然后将这个压缩文件解压到你想安装的目录下面
3、使用
打开cmd,进入spark目录下的bin目录,输入pyspark即可启动spark(因为我是python编程)