简单步骤:
前提:hadoop 环境搭建(我的是伪分布式)
1、官网下载spark
2、spark部署(单机模式):
(1)解压
(2)移动文件到自定义目录下(同时修改文件名-原来的名字太长)
(3)修改 !配置文件:spark-env.sh [ spark与hdfs可以数据交互 ]
3、检测spark安装:
运行run-example实例
简单步骤:
前提:hadoop 环境搭建(我的是伪分布式)
1、官网下载spark
2、spark部署(单机模式):
(1)解压
(2)移动文件到自定义目录下(同时修改文件名-原来的名字太长)
(3)修改 !配置文件:spark-env.sh [ spark与hdfs可以数据交互 ]
3、检测spark安装:
运行run-example实例