• 流计算-学习记录


    流计算-学习记录

    一、简介

      在传统的数据处理流程中,总是先收集数据,然后将数据放到数据库中。当人们需要的时候通过数据库对数据做查询,得到答案或进行相关的处理。

    这样看起来虽然非常合理,但是结果却非常的紧凑,尤其是在一些实时搜索应用环境中的某些具体问题,类似于MapReduce方式的离线处理并不能很好地解决问题。

    这就引出了一种新的数据计算结构---流计算方式。它可以很好地对大规模流动数据在不断变化的运动过程中实时地进行分析,捕捉到可能有用的信息,并把结果发送到下一计算节点。

    大数据的计算模式主要分为批量计算(batch computing)、流式计算(stream computing)、交互计算(interactive computing)、图计算(graph computing)等。

    其中,流式计算和批量计算是两种主要的大数据计算模式,分别适用于不同的大数据应用场景。

    二、常用流计算框架

    Storm

      在Storm中,需要先设计一个实时计算结构,我们称之为拓扑(topology)。

    之后,这个拓扑结构会被提交给集群,其中主节点(master node)负责给工作节点(worker node)分配代码,工作节点负责执行代码。

    在一个拓扑结构中,包含spout和bolt两种角色。数据在spouts之间传递,这些spouts将数据流以tuple元组的形式发送;而bolt则负责转换数据流。

    Spark

      Spark Streaming,即核心Spark API的扩展,不像Storm那样一次处理一个数据流。相反,它在处理数据流之前,会按照时间间隔对数据流进行分段切分。

    Spark针对连续数据流的抽象,我们称为DStream(Discretized Stream)。

    DStream是小批处理的RDD(弹性分布式数据集), RDD则是分布式数据集,可以通过任意函数和滑动数据窗口(窗口计算)进行转换,实现并行操作。

    Flink

    针对流数据+批数据的计算框架。把批数据看作流数据的一种特例,延迟性较低(毫秒级),且能够保证消息传输不丢失不重复。

    Flink创造性地统一了流处理和批处理,作为流处理看待时输入数据流是无界的,而批处理被作为一种特殊的流处理,只是它的输入数据流被定义为有界的。

    Flink程序由Stream和Transformation这两个基本构建块组成,其中Stream是一个中间结果数据,

    而Transformation是一个操作,它对一个或多个输入Stream进行计算处理,输出一个或多个结果Stream。

    Samza 

    其他

    ETL(提取、转换、加载)

    ETL,是英文Extract-Transform-Load的缩写,用来描述将数据从来源端经过抽取(extract)、转换(transform)、加载(load)至目的端的过程。

    Cassandra

    Cassandra是一套开源分布式NoSQL数据库系统。

    参考资料

    流计算

    流计算的背景

    流计算基础(一)

    流式计算的三种框架

    Apache五大主流流计算框架详细对比

  • 相关阅读:
    TiDB基本简介
    flink双流join
    Kafka客户端内存缓冲GC处理机制--客户端内存
    shell常用命令大全[bigdata版]
    kafka channel的parseAsFlumeEvent解析event
    hdfs的写流程以及namenode,datanode挂掉后处理
    [转载]LSM树由来、设计思想以及应用到HBase的索引
    HBase之写流程与读流程
    HBase之写流程中的刷写时机
    HBase之读写流程中WAL机制
  • 原文地址:https://www.cnblogs.com/wangwangfei/p/14752674.html
Copyright © 2020-2023  润新知