• Hadoop概念学习系列之谈hadoop/spark里为什么都有,YARN呢?(四十一)


      在Hadoop集群里,有三种模式:

      1、本地模式

      2、伪分布模式

      3、全分布模式

      在Spark集群里,有四种模式:

    1、local单机模式
      结果xshell可见:
      ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master local[1] ./lib/spark-examples-1.3.1-hadoop2.4.0.jar 100
      这里写local,就是local[1]

    2、standalone集群模式
      需要的配置项
      1, slaves文件
        spark002
        spark003
      2, spark-env.sh
        export JAVA_HOME=/usr/soft/jdk1.7.0_71
        export SPARK_MASTER_IP=spark001
        export SPARK_MASTER_PORT=7077
        export SPARK_WORKER_CORES=1
        export SPARK_WORKER_INSTANCES=1
        export SPARK_WORKER_MEMORY=1g

    3、standalone集群模式
      之client模式:
      结果xshell可见:
      ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://spark001:7077 --executor-memory 1G --total-executor-cores 1 ./lib/spark-examples-1.3.1-hadoop2.4.0.jar 100

    3、standalone集群模式
    之cluster模式:
      结果spark001:8080里面可见!
      ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://spark001:7077 --deploy-mode cluster --supervise --executor-memory 1G --total-executor-cores 1 ./lib/spark-examples-1.3.1-hadoop2.4.0.jar 100
      --supervise是进程监控

    4、Yarn集群模式
      需要的配置项
      1, spark-env.sh
        export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
        export YARN_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
        export SPARK_HOME=/usr/hadoopsoft/spark-1.3.1-bin-hadoop2.4
        export SPARK_JAR=/usr/hadoopsoft/spark-1.3.1-bin-hadoop2.4/lib/spark-assembly-1.3.1-hadoop2.4.0.jar
        export PATH=$SPARK_HOME/bin:$PATH
      2, ~/.bash_profile
      配置好hadoop环境变量

    4、Yarn集群模式
    client模式:
      结果xshell可见:
      ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-client --executor-memory 1G --num-executors 1 ./lib/spark-examples-1.3.1-hadoop2.4.0.jar 100

    4、Yarn集群模式
    cluster模式:
      结果spark001:8088里面可见!
      ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster --executor-memory 1G --num-executors 1 ./lib/spark-examples-1.3.1-hadoop2.4.0.jar 100

      hadoop/spark里为什么都有,YARN呢?

      答:普通OS(操作系统)的功能主要是为处理器管理、存储器管理、设备管理、文件管理、作业管理和用户接口。

    在集群环境下,HDFS已经负责了文件管理,而设备概念较弱,故YARN主要负责统一管理集群内服务器的计算资源(主要包括CPU和内存资源)、作业调度和用户接口。

  • 相关阅读:
    06 is和==的区别 encode()编码 decode()解码
    05 dic的增删改查 字典的嵌套 考试题dic.get()的相关使用
    03 编码 int ,bool,str的常用操作 主要讲str
    01 基本数据类型 变量 if语句
    04 列表的增删改查 常用方法 元祖 range
    02 while循环 格式化输出 运算符
    多校2 Harmonious Army hdu6598 网络流
    P3159 [CQOI2012]交换棋子 网络流
    P2172 [国家集训队]部落战争 最大流
    P2402 奶牛隐藏 网络流
  • 原文地址:https://www.cnblogs.com/zlslch/p/6092539.html
Copyright © 2020-2023  润新知