• Spark-环境安装


    01.Spark--安装Spark

    01.下载安装包 spark-2.1.0-bin-hadoop2.7.tgz

    以下是Spark的官方下载地址:

    https://www.apache.org/dyn/closer.lua/spark/spark-2.3.0/spark-2.3.0-bin-hadoop2.7.tgz
    

    02.解压文件到/soft目录下

    [centos@s101 /soft/spark/conf]$cd ..
    [centos@s101 /soft/spark/conf]$ls
    [centos@s101 /soft/spark/conf]$cd ..
    [centos@s101 /soft]$ls -al
    [centos@s101 /soft]$tar -xzvf spark-2.1.0-bin-hadoop2.7.tgz -C /soft/
    [centos@s101 /soft]
    

    03.创建软连接

    创建软连接后,编译各种文件配置以及后期进行版本升级和替换非常方便

    [centos@s101 /soft]ln -s /soft/spark-2.1.0-bin-hadoop2.7 /soft/spark
    [centos@s101 /soft]cat /etc/profile
    

    04.配置环境变量

    编辑/etc/profile环境变量文件:

    [centos@s101 /soft]sudo /etc/profile
    

    在文件末尾添加如下内容:

    #spark
    export SPARK_HOME=/soft/spark
    export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
    
    注意:将Spark的bin目录和sbin目录都添加到环境变量path中,而且Linux使用“:”作为分隔符。

    05.环境变量生效

    $>source /etc/profile
    

    06.进入Spark-shell命令

    [centos@s101 /soft/spark/bin]$ spark-shell
    

    07.体验Spark-shell

    因为Spark使用的scala语言,因此同Scala的使用完全一致。

    $scala>1 + 1
    输出结果
    2
    

  • 相关阅读:
    VSFTP配置参数详解
    C语言---函数
    ios 学习计划
    读书笔记---金融学一<新国富论>
    读书笔记---人生规划一<斯坦福最受欢迎的人生规划课、像卡耐基一样经营人生、九型人格>
    网络基础
    swift中构造方法和Kvc
    swift中的懒加载
    private的用法
    extension
  • 原文地址:https://www.cnblogs.com/SteveDZC/p/13597002.html
Copyright © 2020-2023  润新知