• mysql变更数据的捕获和入库


    问题:涉及状态的信息,mysql中是update的,缺少中间状态的记录。数据分析中需要这部分数据。

    思路:后端服务通过监控某张表的某个字段,根据mysql的binlog文件,还原数据,发送到kafka。我们消费kafka中的数据,最终在hive的ods层形成表更数据表。

    方案设计

    1. java多线程消费kafka数据直接写入hdfs
      问题:
               (1)会在hdfs形成大量小文件
                 (2)   要监控java程序,维护kafka偏移量等等
    2. spark streaming程序消费kafka实时写入hdfs
      问题:
               (1)想要支持断点续传,要自己维护kafka的偏移量
               (2)线上环境spark环境资源比较吃紧,spark streaming会持续占用较多资源
    3. 每天定时跑批量spark任务,读取kafka,写入hbase,hive上建立hbase映射表
      原因:
               (1)目前配置的hbase重复写入同一条数据会覆盖前一条,如果flume挂掉,任务可以重跑
               (2)可以挑选晚上资源比较充足的时候跑
      问题:
               (1)kafka中数据是持续写入的,所以spark程序不会自动停止,要手动停掉任务
                 (2)  数据写在hbase中,hive的映射表实际读取的还是hbase的数据。所以使用时,最好将数据抽到hive中
    4. 通过flume消费kafka数据,写入hdfs
      最终选择这个方案,因为flume占用资源较少,实时处理的方式也能减少对机器的压力
      并且flume支持check point kafka的偏移量被记录在制定的文件中

    方案4中需要注意的问题:

    1. 线上新的cdh中,缺少flume组件,需要刘亚萌配合
    2. 状态变更最多的sale表和balance表每天会有上千万表更记录,需要对集群的压力测试
    3. 由于需要用到flume的check point来支持断点续传,此种模式要将kafka的channel选为文件模式,将缓存数据存到磁盘。
      缓存文件有两部分,一部分是记录的偏移量,一部分是缓存到磁盘的实际数据,当batch.size达到我们设定的条数时,
      sink将开始数据写到hdfs中。
      (1)要考虑缓存占用的磁盘大小
      (2)要考虑hdfs小文件问题。
      因此要选择合适的batchd.size(数据条数)。尽量使缓存数据大于100m小于128m,让写到hdfs的每个文件和block大小相近。
    4. 数据写入hdfs后,需要通过脚本增加hive表的分区

    待做:
              (1)调研flume使用snappy压缩格式传输
              (2)用双11的数据测试,选择agent个数
                     (如所有topic使用一个agent,每个库使用一个agent,每张表使用一个agent)
              (3)设定合理的batch size(如50000...)

    当然最好可以让上游给我们提供文件,每份文件写到一个日期目录下,这样是最简单的方案。

  • 相关阅读:
    ajax
    导入操作
    游标的使用
    多行编辑
    IOS开发之--NSPredicate
    asp.net DataTables
    asp.net 汉字转拼音的车祸现场
    Git 连接细节
    Aspose.Words 操作指北
    码云代码管理插件备忘
  • 原文地址:https://www.cnblogs.com/drjava/p/10447014.html
Copyright © 2020-2023  润新知