• Spark:大数据的电花火石!


    什么是Spark?可能你非常多年前就使用过Spark,反正当年我四六级单词都是用的星火系列。没错,星火系列的洋名就是Spark。

    当然这里说的Spark指的是Apache Spark。Apache Spark™is a fast and general engine for large-scale data processing: 一种高速通用可扩展的数据分析引擎。假设想要搞清楚Spark是什么,那么我们须要知道它攻克了什么问题,还有是怎么解决这些问题的。

    Spark攻克了什么问题?

    在这里不得不提大数据,大数据有两个根本性的问题,一个是数据非常大。怎样存储?另外一个是数据非常大。怎样分析?毕竟分析大数据是为了改善产品的用户体验,从而获取很多其它的价值。

    对于第一个问题,开源社区给出的方案就是HDFS,一个非常优秀的分布式存储系统。

    对于第二个问题。在Hadoop之 后。开源社区推出了很多值得关注的大数据分析平台。

    这些平台范围广阔,从简单的基于脚本的产品到与Hadoop 相似的生产环境。

    Bashreduce在 Bash环境中的多个机器上执行 MapReduce 类型的操作,能够直接引用强大的Linux命令。GraphLab 也是一种MapReduce 抽象实现,側重于机器学习算法的并行实现。还有Twitter 的 Storm(通过收购 BackType 获得)。

    Storm 被定义为 “实时处理的 Hadoop”,它主要側重于流处理和持续计算。

    Spark就是解决第二个问题的佼佼者。Why Spark?


    Why Spark?

    如今有非常多值得关注的大数据分析平台。那么为什么要选择Spark呢?


    速度

    与Hadoop的MapReduce相比,Spark基于内存的运算比MR要快100倍;而基于硬盘的运算也要快10倍!

    (From the Project HomePage)


    易用

    Spark支持Java,Python和Scala。而且支持交互式的Python和Scala的shell,这意味这你能够非常方便的在这些shell中使用Spark集群来验证你的解决问题的方法,而不是像曾经一样。打包。。

    。这对于原型开发非常重要。

    Hadoop的WorldCount的Mapper和Reducer加起来要20多行吧。Spark仅须要:

    val file = spark.textFile("hdfs://...")
    val counts = file.flatMap(line => line.split(" "))
                     .map(word => (word, 1))
                     .reduceByKey(_ + _)
    counts.saveAsTextFile("hdfs://...") 
    甚至能够将它们放到一行。



    通用性

    Spark提供了All in One的解决方式!

    (From the Project HomePage)

    ·        Shark SQ:应用于即席查询(Ad-hocquery)

    ·        Spark Streaming:应用于流式计算

    ·        MLlib:应用于机器学习

    ·        GraphX: 应用于图处理

     

    Spark All In One的解决方式非常具有吸引力,毕竟不论什么公司都想要Unified的平台去处理遇到的问题,能够降低开发和维护的人力成本和部署平台的物力成本。

    当然还有。作为All in One的解决方式,Spark并没有以牺牲性能为代价。相反,在性能方面,Spark还有非常大的优势。


    和Hadoop的集成

    Spark能够使用YARN作为它的集群管理器,而且能够处理HDFS的数据。

    这对于已经部署Hadoop集群的用户特别重要,毕竟不须要做不论什么的数据迁移就能够使用Spark的强大处理能力。Spark能够读取HDFS,HBase, Cassandra等一切Hadoop的数据。

    当然了对于没有部署而且没有计划部署Hadoop集群的用户来说,Spark仍然是一个非常好的解决方法。它还支持standaloneEC2Mesos。你仅仅要保证集群的节点能够訪问共享的内容,比方通过NFS你就能够非常easy的使用Spark!


    How Spark?

    Spark是怎样做到呢?或者说Spark的内核是怎样实现的?


    架构综述

    (From the Project HomePage)

    先说解释一下上图的术语:

    Driver Program: 执行main函数而且新建SparkContext的程序。

    SparkContext:Spark程序的入口,负责调度各个运算资源。协调各个Worker Node上的Executor。

    Application: 基于Spark的用户程序,包括了driver程序和集群上的executor

    Cluster Manager: 集群的资源管理器(比如: Standalone,Mesos,Yarn)

    Worker Node: 集群中不论什么能够执行应用代码的节点

    Executor: 是在一个worker node上为某应用启动的一个进程,该进程负责执行任务,而且负责将数据存在内存或者磁盘上。每个应用都有各自独立的executors

    Task: 被送到某个executor上的工作单元

    了解了各个术语的含义后,我们看一下一个用户程序是怎样从提交到终于到集群上执行的:

    1.      SparkContext连接到ClusterManager,而且向ClusterManager申请executors。

    2.      SparkContext向executors发送application code。

    3.      SparkContext向executors发送tasks,executor会执行被分配的tasks。

    执行时的状态例如以下图:

    (From Paper Resilient Distributed Datasets: A Fault-Tolerant Abstractionfor In-Memory Cluster Computing)

    Spark为什么这么快?

    首先看一下为什么MapReduce那么慢。

    速度可能是MapReduce最被人们诟病的地方。传统的MapReduce框架慢在哪里。

    基于内存的计算式Spark速度非常快的原因之中的一个。Spark的运算模型也是它出色性能的重要保障。

    Spark的关键运算组件例如以下图。

    什么是RDD

    RDD是Spark的基石,也是Spark的灵魂。

    说Spark不得不提RDD,那么RDD(Resilient Distributed Dataset,弹性分布式数据集)是什么呢?当然了,论文Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing是了解RDD不可缺少的。它从学术,实现给出了什么是RDD。

    以下是从RDD的实现源代码的凝视中说明了RDD的特性。

    1. A list of partitions
    2. A function for computing each split
    3. A list of dependencies on other RDDs
    4. Optionally, a Partitioner for key-value RDDs (e.g. to say that the RDD is hash-partitioned)
    5. Optionally, a list of preferred locations to compute each split on (e.g. block locations for an HDFS file)

    接着把相应的实现接口的源代码贴一下,以方便去源代码中查找RDD的核心框架:

    1. 分区 protected def getPartitions: Array[Partition]
    2. 依赖 protected def getDependencies: Seq[Dependency[_]] = deps
    3. 函数 def compute(split: Partition, context: TaskContext): Iterator[T]
    4. 最佳位置(可选) protected def getPreferredLocations(split: Partition): Seq[String] = Nil
    5. 分区策略(可选) @transient val partitioner: Option[Partitioner] = None


    RDD的操作

    RDD支持两种操作:转换(transformation从现有的数据集创建一个新的数据集。而动作(actions)在数据集上执行计算后,返回一个值给驱动程序。

    比如,map就是一种转换,它将数据集每个元素都传递给函数,并返回一个新的分布数据集表示结果。另一方面,reduce是一种动作,通过一些函数将全部的元素叠加起来,并将终于结果返回给Driver程序。(只是另一个并行的reduceByKey,能返回一个分布式数据集)

    Spark中的全部转换都是惰性的,也就是说,他们并不会直接计算结果。相反的。它们仅仅是记住应用到基础数据集(比如一个文件)上的这些转换动作。

    仅仅有当发生一个要求返回结果给Driver的动作时,这些转换才会真正执行。这个设计让Spark更加有效率的执行。

    比如,我们能够实现:通过map创建的一个新数据集。并在reduce中使用。终于仅仅返回reduce的结果给driver,而不是整个大的新数据集。

    默认情况下。每个转换过的RDD都会在你在它之上执行一个动作时被又一次计算。

    只是。你也能够使用persist(或者cache)方法。持久化一个RDD在内存中。

    在这样的情况下。Spark将会在集群中,保存相关元素。下次你查询这个RDD时。它将能更高速訪问。在磁盘上持久化数据集,或在集群间复制数据集也是支持的。详尽的RDD操作请參见 RDD API doc


    数据的本地性

    数据本地性的意思就是尽量的避免数据在网络上的传输。Hadoop的MR之所以慢,频繁的读写HDFS是原因之中的一个,为了解决问题,Spark将数据都放在了内存中(当然这是理想的情况。当内存不够用时数据仍然须要写到文件系统中)。可是假设数据须要在网络上传输,也会导致大量的延时和开销,毕竟disk IO和network IO都是集群的昂贵资源。

    数据本地性是尽量将计算移到数据所在的节点上进行。

    毕竟移动计算要比移动数据所占的网络资源要少得多。而且,由于Spark的延时调度机制。使得Spark能够在更大的程度上去做优化。比方,拥有数据的节点当前正被其它的task占用,那么这样的情况是否须要将数据移动到其它的空暇节点呢?答案是不一定。

    由于假设预測当前节点结束当前任务的时间要比移动数据的时间还要少。那么调度会等待,直到当前节点可用。


    Spark的现状与未来

    值得庆祝的里程碑:

    ·        2009:Spark诞生于AMPLab

    ·        2010:开源

    ·        2013年6月:Apache孵化器项目

    ·        2014年2月:Apache顶级项目

    ·        Hadoop最大的厂商Cloudera宣称加大Spark框架的投入来代替Mapreduce

    ·        Hadoop厂商MapR投入Spark阵营

    ·        Apache mahout放弃MapReduce,将使用Spark作为兴许算子的计算平台

    ·        2014年5月30日Spark1.0.0公布

    进一步学习

    熟读源代码永远是知道真相的唯一方式。尤其是Scala语言是如此简洁,如此易读。

    当然了在这之前不妨读一下论文。尤其是RDD的。这样能够让你有个总体把握整个系统的能力。


    敬请期待

       源代码之前,了无真相。接下来,我将从源代码分析的角度。深入Spark内部。来系统学习Spark,学习它的架构,学习它的实现。


    请您支持:

    假设你看到这里。相信这篇文章对您有所帮助。假设是的话。请为本文投一下票吧: 点击投票,多谢。


  • 相关阅读:
    微服务之初识微服务
    常见的认证机制及JSON WEB TOKEN
    深入理解缓存之缓存预热与淘汰策略
    深入理解缓存之缓存和数据库的一致性
    深入理解缓存之缓存存在的问题及应对措施
    深入理解缓存之常见的缓存算法
    计算机网络之HTTP、HTTPS、HTTP2
    计算机网络之TCP(三次握手、四次挥手等),UDP及DNS
    计算机网络之网络体系架构与IP
    深入理解MyBatis(四)--缓存
  • 原文地址:https://www.cnblogs.com/gccbuaa/p/6868921.html
Copyright © 2020-2023  润新知