• Spark3000门徒第六课精通Spark集群搭建总结


    今晚听了王家林老师的第六课精通Spark集群搭建和测试,课后作业是:搭建自己的spark环境并成功运行pi,我的总结如下:

    1 硬件环境:

    至少8GB内存,推荐金士顿内存,虚拟机推荐Ubuntu kylin版本,可以安装各种办公软件包括搜狗输入法。
    上网方式:Nat,root权限登录,避免权限问题

    2.软件环境:

    RedHat 6.4  spark 1.6.0   hadoop 2.6.0   scala 2.11.8

    3 /etc/hosts ip-hostname对应关系

    spark.eventLog.enabled true 记录spark运行事件,便于运维
    ./start-history-server.sh 启动

    spark://Master:7077  默认端口

    4 Pi 程序

    object SparkPi {
    def main(args: Array[String]) {
    val conf = new SparkConf().setAppName("Spark Pi")
    val spark = new SparkContext(conf)
    val slices = if (args.length > 0) args(0).toInt else 2
    val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow
    val count = spark.parallelize(1 until n, slices).map { i =>
    val x = random * 2 - 1
    val y = random * 2 - 1
    if (x*x + y*y < 1) 1 else 0
    }.reduce(_ + _)
    println("Pi is roughly " + 4.0 * count / n)
    spark.stop()
    }
    }

    5 运行结果:

    ./bin/spark-submit
    --class org.apache.spark.examples.SparkPi
    --master spark://Master:7077
    ./lib/spark-examples-1.6.0-hadoop2.6.0.jar
    1000

    后续课程可以参照新浪微博 王家林_DT大数据梦工厂:http://weibo.com/ilovepains

    王家林  中国Spark第一人,微信公共号DT_Spark

  • 相关阅读:
    转载Python中__getattr__ __getattribute__ __get__解释
    python异常介绍
    Javascript创建对象的几种方式
    python类高级话题
    python运算符重载2
    python运算符重载
    python面向对象编程基础
    PHP学习之提示标签
    Web自动化测试构建学习小结(二)
    Web自动化测试构建学习小结(一)
  • 原文地址:https://www.cnblogs.com/haitianS/p/5107679.html
Copyright © 2020-2023  润新知