• hadoop 入门学习系列之八-----spark安装


    1.安装 Scala

    tar -zxvf scala-2.11.8.tgz

    再次修改环境变量sudo vi /etc/profile,添加以下内容:

    export SCALA_HOME=/opt/softwares/scala-2.11.8
    export PATH=$PATH:$SCALA_HOME/bin

    同样的方法使环境变量生效,并验证 scala 是否安装成功

    $ source /etc/profile #生效环境变量
    $ scala -version #如果打印出如下版本信息,则说明安装成功
    Scala code runner version 2.10.4 -- Copyright 2002-2013, LAMP/EPFL
     

    2. 安装spark

    tar -zxvf spark-2.1.1-bin-hadoop2.6.tgz
    mv spark-2.1.1-bin-hadoop2.6 spark-2.1.1 #原来的文件名太长了,修改下
    cd ~/workspace/spark-1.3.0/conf #进入spark配置目录
    cp spark-env.sh.template spark-env.sh #从配置模板复制
    vi spark-env.sh #添加配置内容
    spark-env.sh末尾添加以下内容(这是我的配置,你可以自行修改):

    export SCALA_HOME=/opt/softwares/scala-2.11.8
    export JAVA_HOME=/opt/softwares/jdk1.7.0_80
    export HADOOP_HOME=/opt/app/hadoop-2.6.5
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    SPARK_MASTER_IP=master
    SPARK_LOCAL_DIRS=/opt/app/spark-2.1.1
    SPARK_DRIVER_MEMORY=1G

    vi slaves在slaves文件下填上slave主机名:

    slave1

    slave2

    将配置好的spark-2.1.1文件夹分发给所有slaves

    scp -r /opt/app/spark-2.1.1 hadoop01@slave1:/opt/app/

    scp -r /opt/app/spark-2.1.1 hadoop01@slave2:/opt/app/

    3. 启动Spark

    sbin/start-all.sh

    4. 验证 Spark 是否安装成功

    用jps检查,在 master 上应该有以下几个进程:

    $ jps
    7949 Jps
    7328 SecondaryNameNode
    7805 Master
    7137 NameNode
    7475 ResourceManager
    在 slave 上应该有以下几个进程:

    $jps
    3132 DataNode
    3759 Worker
    3858 Jps
    3231 NodeManager
    进入Spark的Web管理页面: http://master:8080

    5.运行示例

    #本地模式两线程运行
    ./bin/run-example SparkPi 10 --master local[2]
    #Spark Standalone 集群模式运行
    bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://master:7077 examples/jars/spark-examples_2.11-2.1.1.jar 100
    #Spark on YARN 集群上 yarn-cluster 模式运行
    ./bin/spark-submit
    --class org.apache.spark.examples.SparkPi
    --master yarn-cluster # can also be `yarn-client`
    examples/jars/spark-examples*.jar
    10

     
     
  • 相关阅读:
    秒杀项目之——通过令牌发放机制,控制秒杀大闸以及队列泄洪
    Guava的使用
    秒杀项目之细节随笔记录————
    redis搭建集群
    redis内存满了怎么办?
    多个电脑上免密登陆命令、scp远程拷贝、修改文件的用户和组
    克隆完虚拟机后修改网卡,修改静态IP
    redis基本操作和 过期时间设置以及持久化方案
    linux操作系统安装运行Redis
    云服务器以及linux操作系统打开防火墙,在墙上开一个小口
  • 原文地址:https://www.cnblogs.com/lovefendi/p/7273947.html
Copyright © 2020-2023  润新知