• Centos下基于Hadoop安装Spark(分布式)


    前提

    Hadoop可成功在分布式系统下启动

     

    下载scala  链接是https://downloads.lightbend.com/scala/2.12.7/scala-2.12.7.tgz

    Master和其他子主机下

    wget https://downloads.lightbend.com/scala/2.12.7/scala-2.12.7.tgz

    解压

    tar -zxvf scala-2.12.7.tgz

    将解压后的文件复制到自己的文件路径

    cp -r ./scala-2.12.7 /usr/scala

    配置环境变量

    vim /etc/profile

    添加

    export SCALA_HOME=/usr/scala
    export PATH=$PATH:$SCALA_HOME/bin

    执行

    . /etc/profile

    使之生效,后测试

    scala -version
    [root@xinglichao sbin]# scala -version
    Scala code runner version 2.12.7 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.

    表示成功

    下载Spark  链接是http://mirrors.shu.edu.cn/apache/spark/spark-2.3.2/spark-2.3.2-bin-hadoop2.7.tgz(还有很多镜像可供使用)

    在Master主机上使用wget下载

    wget http://mirrors.shu.edu.cn/apache/spark/spark-2.3.2/spark-2.3.2-bin-hadoop2.7.tgz

    同scala一样,要执行解压,复制到指定文件夹

    tar -zxvf spark-2.3.2-bin-hadoop2.7.tgz
    cp ./spark-2.3.2-bin-hadoop2.7/* /usr/spark/

     进入/usr/spark/conf

    配置spark-env.sh和slaves

    cp spark-env.sh.template spark-env.sh
    cp slaves.template slaves
    vim spark-env.sh

    添加配置

    #java路径
    export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-3.b13.el7_5.x86_64/jre #scala路径
    export SCALA_HOME=/usr/scala
    #hadoop路径 export HADOOP_HOME=/usr/hadoop/hadoop-
    2.7.5 #指向包含Hadoop集群的(客户端)配置文件的目录,运行在Yarn上配置此项 export HADOOP_CONF_DIR=/usr/hadoop/hadoop-2.7.5/etc/hadoop #指定默认master的ip或主机名 export SPARK_MASTER_HOST=xinglichao #指定maaster提交任务的默认端口为7077 export SPARK_MASTER_PORT=7077 #指定masster节点的webui端口 export SPARK_MASTER_WEBUI_PORT=8080 #每个worker从节点的端口(可选配置) export SPARK_WORKER_PORT=7078 #每个worker从节点的wwebui端口(可选配置) export SPARK_WORKER_WEBUI_PORT=8081 #每个worker从节点能够支配的内存数 export SPARK_WORKER_MEMORY=1g #允许Spark应用程序在计算机上使用的核心总数(默认值:所有可用核心) export SPARK_WORKER_CORES=1 #每个worker从节点的实例(可选配置) export SPARK_WORKER_INSTANCES=1
    vim slaves
    子主机的主机名或者ip

    将spark分发到子节点主机

    scp /usr/spark/* root@192.168.0.102:/usr/spark/

    在Master上启动spark

    [root@xinglichao sbin]# pwd
    /usr/spark/sbin
    [root@xinglichao sbin]# ./start-all.sh 
    starting org.apache.spark.deploy.master.Master, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-xinglichao.out
    zhangpeng: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-zhangpeng.out
    [root@xinglichao sbin]# 

    jps查看进程


    本节完......

  • 相关阅读:
    自定义Listview
    android ListView嵌套GridView显示不全问题
    Android-Universal-Image-Loader 图片异步加载类库的使用(超详细配置)
    android service被系统回收的解决方法
    android Activity基类通用方法
    用 FragmentManager 替换时使用 GoogleMaps 崩溃 app
    Gulp 从0开始
    面试题 之 全排列
    面试题之 query转为obj
    this .运算符 和 [] 运算符
  • 原文地址:https://www.cnblogs.com/xinglichao/p/9838997.html
Copyright © 2020-2023  润新知