• 统一数据接入实践分享



    统一数据接入

    数据接入就是对于不同的数据来源、不同的合作伙伴,完成数据采集、数据传输、数据处理、数据缓存到行业统一的数据平台的过程。
    在这里插入图片描述

    大数据接入处理面临的问题

    在这里插入图片描述

    在这里插入图片描述

    数据接入的三个阶段

    在这里插入图片描述

    0.非结构化数据----(word,excel,图片,pdf,扫描件,视频)
    1.文本文件----(txt,csv)----utf-8
    (踩过的坑-gbk编码和数据中换行符触发spark2.2 加载文件的bug(multiline 和gbk 不能共同作用))

    2.数据库(full dump,请求接口)
    3.去ioe,集群迁徙

    数据格式,字段,内容要求:

    非结构化数据
    0. 标签,背景模板,文档说明

    结构化数据
    数据字典,ER图,数据流图,系统截图,新人入职培训说明
    1.所有文本文件要求编码格式utf8,csv 要求双引号包裹(字段中不要有回车换行)
    2.数据库full dump 给出导出脚本及日志(yiyong数据的坑----没有导出脚本,看着报错一步步推断)
    3.请求接口给出请求文档,及支持的最大并发数等指标

    针对不同的数据来源,确定数据最终存储的格式,地点

    1.数据质量核查
    2.描述性统计分析


    接入技术分析

    在这里插入图片描述

    批处理

    优点:数据覆盖面广,时间跨度长,支撑业务范围广 ,计算准确度高;依靠历史数据预先计算相关数据模型
    缺点:数据实效性不足 存储空间、存储类型需求大

    流式

    优点:高效查询、快速响应、“热数据”价值高效利用
    缺点:上下文关联密切场景业务支撑不足

    1.数据接入手段

    1)socket方式
    c/s交互模式,传输协议采用tcp/udp
    优点:1.易于编程,java提供了多种框架,屏蔽了底层通信细节以及数据传输转换细节。2.容易控制权限。通过传输层协议https,加密传输的数据,使得安全性提高
    3.通用性比较强,无论客户端是.net架构,java,python 都是可以的。尤其是webservice规范,使得服务变得通用
    缺点:1.服务器和客户端必须同时工作,当服务器端不可用的时候,整个数据交互是不可进行。2 当传输数据量比较大的时候,严重占用网络带宽,可能导致连接超时。使得在数据量交互的时候,服务变的很不可靠
    2)ftp/文件共享服务器方式
    适合大数据量的交互,约定文件格式、命名规则。批量处理数据
    优点:
    在数据量大的情况下,可以通过文件传输,不会超时,不占用网络带宽
    方案简单,易操作
    缺点:
    实时性不强
    必须约定文件数据的格式,当改变文件格式的时候,需要各个系统都同步做修改
    3)message形式
    Java消息服务(Java Message Service)是message数据传输的典型的实现方式。
    系统A和系统B通过一个消息服务器进行数据交换。系统A发送消息到消息服务器,如果系统B订阅系统A发送过来的消息,消息服务器会消息推送给B。双方约定消息格式即可。目前市场上有很多开源的jms消息中间件,比如 使用较多的消息队列有ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaMQ,RocketMQ等
    优点:
    1 由于jms定义了规范,有很多的开源的消息中间件可以选择,而且比较通用。接入起来相对也比较简单
    2 通过消息方式比较灵活,可以采取同步,异步,可靠性的消息处理,消息中间件也可以独立出来部署。
    缺点:
    1.学习jms相关的基础知识,消息中间件的具体配置,以及实现的细节对于开发人员来说还是有一点学习成本的
    2 在大数据量的情况下,消息可能会产生积压,导致消息延迟,消息丢失,甚至消息中间件崩溃。

    Flume+kafka
    Flume作为日志收集工具,监控一个文件目录或者一个文件,当有新数据加入时,收集新数据发送给Kafka。Kafka用来做数据缓存和消息订阅。Kafka里面的消息可以定时落地到HDFS上,也可以用Spark Streaming来做实时处理,然后将处理后的数据落地到HDFS上。
    Flume采集数据都是按行分割的,一行代表一条记录。如果原始数据不符合要求,需要对数据进行预处理。
    数据库文件
    1.Imp/exp方式使用dmp文件直接导入目标库
    2.sqoop 关系型数据库与hadoop生态系统(hive,hdfs)进行数据转移

    ETL(Extract-Transform-Load )工具:构建数据仓库
    用户从数据源抽取出所需的数据,经过数据清洗,最终按照预先定义好的数据仓库模型,将数据加载到数据仓库中去
    Apache Camel、Apache Kafka、Apatar、Heka、Logstash、Scriptella、Talend、Kettle

    2.接入技术选择

    1.ETL工具
    (Extract-Transform-Load )
    2.定制研发
    在这里插入图片描述


    参考文献

    《数据平台的实践及思考》 杨剑飞

  • 相关阅读:
    产品经理做产品设计的九步法
    产品经理要懂多少技术?
    产品经理如何注重细节意识的培养
    产品经理如何在技术人员面前更有说服力?
    从程序员到项目经理:每个人都是管理者
    我的人才管理方式
    一个关于内部类的小例子
    java中的全局变量与静态变量的区别与联系?有时候为什么专门定义静态变量。(标题党~~)
    举一反三,一小步。
    中国移动的企业文化 ,以及中国移动都有那些业务?
  • 原文地址:https://www.cnblogs.com/M0rta1s/p/12314166.html
Copyright © 2020-2023  润新知