• Windows下spark1.6.0本地环境搭建


      由于spark是用scala编写的,且需要jdk的环境支撑,所以本地spark环境的搭建需要四个步骤:JDK的安装,scala的安装,hadoop的配置,spark的配置。

      一、jdk的安装与环境变量的配置。(参考:http://blog.csdn.net/u011513853/article/details/52865076#comments)

      二、scala安装。选择版本scala2.10.3,配置相应的路径。

      需要注意的是,Spark的各个版本需要跟相应的Scala版本对应,比如我这里使用的Spark 1.6.0就只能使用Scala 2.10的各个版本,目前最新的Spark 2.0就只能使用Scala 2.11的各个版本,所以下载的时候,需要注意到这种Scala版本与Spark版本相互对应的关系。

      下载得到Scala的msi文件后,可以双击执行安装。安装成功后,默认会将Scala的bin目录添加到PATH系统变量中去(如果没有,和JDK安装步骤中类似,将Scala安装目录下的bin目录路径,添加到系统变量PATH中),为了验证是否安装成功,开启一个新的cmd窗口,输入scala然后回车,如果能够正常进入到Scala的交互命令环境则表明安装成功。

      

      三、hadoop路径配置。(下载路径

      

      新建系统变量:HADOOP_HOME    D:profilelocalProfileshadoop-2.6.0

      添加path变量:%HADOOP_HOME%in;

      四、spark路径配置。(下载路径

      选择适合版本,下载并解压:

      

      配置环境变量:

      新建系统变量:SPARK_HOME    D:profilelocalProfilesspark-1.6.0-bin-hadoop2.6

      添加path变量:%SPARK_HOME%in;

      个人配置环境的安装文件地址:百度云

  • 相关阅读:
    小程序配置安装
    微信小程序--录制音频,播放音频
    微信小程序报错.wxss无法找到
    linux 安装 elasticsearch
    Ubuntu 安装Logstash
    python 开发微信 自定义菜单
    微信 python搭建服务器
    vue 本地存储数据 sessionStorage
    luogu1742 最小圆覆盖
    luogu1501 [国家集训队]Tree II
  • 原文地址:https://www.cnblogs.com/hexu105/p/6991879.html
Copyright © 2020-2023  润新知