今晚听了王家林老师的第六课精通Spark集群搭建和测试,课后作业是:搭建自己的spark环境并成功运行pi,我的总结如下:
1 硬件环境:
至少8GB内存,推荐金士顿内存,虚拟机推荐Ubuntu kylin版本,可以安装各种办公软件包括搜狗输入法。
上网方式:Nat,root权限登录,避免权限问题
2.软件环境:
RedHat 6.4 spark 1.6.0 hadoop 2.6.0 scala 2.11.8
3 /etc/hosts ip-hostname对应关系
spark.eventLog.enabled true 记录spark运行事件,便于运维
./start-history-server.sh 启动
spark://Master:7077 默认端口
4 Pi 程序
object SparkPi {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("Spark Pi")
val spark = new SparkContext(conf)
val slices = if (args.length > 0) args(0).toInt else 2
val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow
val count = spark.parallelize(1 until n, slices).map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if (x*x + y*y < 1) 1 else 0
}.reduce(_ + _)
println("Pi is roughly " + 4.0 * count / n)
spark.stop()
}
}
5 运行结果:
./bin/spark-submit
--class org.apache.spark.examples.SparkPi
--master spark://Master:7077
./lib/spark-examples-1.6.0-hadoop2.6.0.jar
1000
后续课程可以参照新浪微博 王家林_DT大数据梦工厂:http://weibo.com/ilovepains
王家林 中国Spark第一人,微信公共号DT_Spark