• Canal——Alibaba数据实时同步神器


    第 一 章 Canal 入门

    1.1 什么是 Canal

    阿里巴巴 B2B 公司,因为业务的特性,卖家主要集中在国内,买家主要集中在国外,所以衍生出了同步杭州和美国异地机房的需求,从 2010 年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务。

    canal [kə'næl],译意为水道/管道/沟渠。

    Canal 是用 Java 开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。

    目前。Canal 主要支持了 MySQL 的 Binlog 解析,解析完成后才利用 Canal Client 来处理获得的相关数据。(数据库同步需要阿里的 Otter 中间件,基于Canal)。

    1.2 MySQL 的 Binlog

    1.2.1 什么是 Binlog

    MySQL 的二进制日志可以说 MySQL 最重要的日志了,它记录了所有的 DDL 和 DML(除了数据查询语句)语句,以事件形式记录,还包含语句所执行的消耗的时间,MySQL 的二进制日志是事务安全型的。

    一般来说开启二进制日志大概会有 1%的性能损耗。二进制有两个最重要的使用场景:

    1. MySQL Replication 在 Master 端开启 Binlog,Master 把它的二进制日志传递给 Slaves来达到 Master-Slave 数据一致的目的。
    2. 自然就是数据恢复了,通过使用 MySQL Binlog 工具来使恢复数据。

    二进制日志包括两类文件:二进制日志索引文件(文件名后缀为.index)用于记录所有的二进制文件,二进制日志文件(文件名后缀为.00000*)记录数据库所有的 DDL 和 DML(除了数据查询语句)语句事件。

    1.2.2 Binlog 的分类

    MySQL Binlog 的格式有三种,分别是 STATEMENT,MIXED,ROW。在配置文件中可以选择配置 binlog_format= statement|mixed|row。三种格式的区别:

    1)statement:语句级,binlog 会记录每次一执行写操作的语句。相对 row 模式节省空间,但是可能产生不一致性,比如“update tt set create_date=now()”,如果用 binlog 日志进行恢复,由于执行时间不同可能产生的数据就不同。

    • 优点:节省空间。
    • 缺点:有可能造成数据不一致。

    2)row:行级, binlog 会记录每次操作后每行记录的变化。

    • 优点:保持数据的绝对一致性。因为不管 sql 是什么,引用了什么函数,他只记录执行后的效果。
    • 缺点:占用较大空间。

    3)mixed:statement 的升级版,一定程度上解决了,因为一些情况而造成的 statement模式不一致问题,默认还是 statement,在某些情况下譬如:当函数中包含 UUID() 时;包含AUTO_INCREMENT 字段的表被更新时;执行 INSERT DELAYED 语句时;用 UDF 时;会按照ROW 的方式进行处理

    • 优点:节省空间,同时兼顾了一定的一致性。
    • 缺点:还有些极个别情况依旧会造成不一致,另外 statement 和 mixed 对于需要对binlog 的监控的情况都不方便。

    综合上面对比,若使用Canal 想做实时监控分析,直接将statement的SQL语句发送给Flink或SparkStream是不合适的,因为没有SQL引擎,选择 row 格式比较合适。

    1.3 Canal 的工作原理

    1.3.1 MySQL 主从复制过程

    1)Master 主库将改变记录(二进制日志事件binary log events),写到二进制日志(Binary Log)中;

    2)Slave 从库向 MySQL Master 发送 dump 协议,将 Master 主库的 binary log events 拷贝到它的中继日志(relay log);

    3)Slave 从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。

    image-20220316142443162

    1.3.2 Canal 的工作原理

    Canal的工作原理就是把自己伪装成 Slave,假装从 Master 复制数据。

    • canal 模拟 MySQL Slave 的交互协议,伪装自己为 MySQL Slave ,向 MySQL master 发送dump 协议
    • MySQL Master 收到 dump 请求,开始推送 binary log 给 Slave (即 canal )
    • Canal 解析 binary log 对象(原始为 byte 流)
    image.png

    1.4 使用场景

    1)原始场景: 阿里 Otter 中间件的一部分

    Otter 是阿里用于进行异地数据库之间的同步框架,Canal 是其中一部分。

    image-20220316142501023

    2)常见场景 1:更新缓存

    image-20220316142601493

    3)常见场景 2:抓取业务表的新增变化数据,用于制作实时统计(我们就是这种场景)

    第二章 MySQL准备

    2.1 创建数据库

    image-20220320133234895

    2.2 创建数据表

    CREATE TABLE user_info(
    `id` VARCHAR(255),
    `name` VARCHAR(255),
    `sex` VARCHAR(255)
    );
    

    2.3 修改配置文件开启Binlog

    [wkf@hadoop102 ~]$ sudo vim /etc/my.cnf
    server-id=1
    log-bin=mysql-bin
    binlog_format=row
    binlog-do-db=gmall-2022
    

    注意:binlog-do-db 根据自己的情况进行修改,指定具体要同步的数据库,如果不配置则表示所有数据库均开启Binlog

    2.4 重启 MySQL使配置生效

    sudo systemctl restart mysqld
    

    到/var/lib/mysql目录下查看初始文件大小 154

    [wkf@hadoop102 lib]$ pwd
    /var/lib
    

    image-20220320134510921

    2.5 测试 Binlog是否开启

    1)插入数据

    INSERT INTO user_info VALUES('1001','zhangsan','male');
    

    2)再次到 /var/lib/mysql目录下,查看 index文件的大小

    image-20220320134541140

    2.6 赋权限

    在MySQL中执行

    mysql> set global validate_password_length=4;
    mysql> set global validate_password_policy=0;
    mysql> GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%' IDENTIFIED BY 'canal'
    

    第三章 Canal 的下载和安装

    3.1 下载并解压 Jar包

    https://github.com/alibaba/canal/releases
    下载的 canal.deployer-1.1.2.tar.gz拷贝到 /opt/sortware目录下,然后解压到 /opt/module/canal包下
    注意:canal解压后是分散的,我们在指定解压目录的时候需要将 canal指定上

    [wkf@hadoop 102 software]$ mkdir /opt/module/canal
    [wkf@hadoop 102 software]$ tar zxvf canal.deployer-1.1.2.tar.gz -C /opt/module/canal
    

    3.2 修改 canal.properties的配置

    [wkf@hadoop102 conf]$ pwd
    /opt/module/canal/conf
    [wkf@hadoop102 conf]$ vim canal.properties
    ######### common argument #############
    canal.id = 1
    canal.ip =
    canal.port = 11111
    canal.metrics.pull.port = 11112
    canal.zkServers =
    # flush data to zk
    canal.zookeeper.flush.period = 1000
    canal.withoutNetty = false
    # tcp, kafka, RocketMQ
    canal.serverMode = tcp
    # flush meta cursor/parse position to file
    

    说明:
    这个文件是 canal的基本通用配置, canal端口号默认就是 11111 修改 canal的输出 model,默认 tcp,kafka模式改为输出到 kafka

    多实例配置如果创建多个实例 通过前面 canal架构,我们可以知道,一个 canal服务中可以有多个 instance conf/下的每一个 example即是一个实例,每个实例下面都有独立的配置文件。默认只有一个实例 example,如果需要多个实例处理不同的 MySQL数据的话,直接拷贝出多个 example,并对其重新命名,命名和配置文件中指定的名称一致,然后修改canal.properties中的 canal.destinations=实例 1,实例 2,实例 3。

    ######### destinations #############
    canal.destinations = example
    

    3.3 修改 instance.properties

    我们这里只读取一个MySQL数据,所以只有一个实例,这个实例的配置文件在
    conf/example目录下

    [wkf@hadoop 102 example]$ pwd
    /opt/module/canal/conf/example
    [wkf@hadoop 102 example]$ vim instance.properties
    

    1)配置 MySQL服务器地址

    ## mysql serverId , v1.0.26+ will autoGen
    canal.instance.mysql.slaveId=20
    # enable gtid use true/false
    canal.instance.gtidon=false
    # position info
    canal.instance.master.address=hadoop102:3306
    

    2)配置连接 MySQL的用户名和密码,默认就是我们前面授权的 canal

    # username/password
    canal.instance.dbUsername=canal
    canal.instance.dbPassword=canal
    canal.instance.connectionCharset = UTF-8
    canal.instance.defaultDatabaseName =test
    # enable druid Decrypt database password
    canal.instance.enableDruid=false
    

    第四章 实时监控测试

    4.1 TCP模式测试

    4.1.1 创建 gmall-canal项目

    image-20220320142013175

    image-20220320142022231

    4.1.2 在 gmall-canal模块中配置 pom.xml

        <dependencies>
            <dependency>
                <groupId>com.alibaba.otter</groupId>
                <artifactId>canal.client</artifactId>
                <version>1.1.2</version>
            </dependency>
            <dependency>
                <groupId>org.apache.kafka</groupId>
                <artifactId>kafka-clients</artifactId>
                <version>2.4.1</version>
            </dependency>
        </dependencies>
    

    4.1.3 通用监视类 CanalClient

    1)Canal 封装的数据结构

    image-20220320142401151

    2)在gmall-canal 模块下创建com.atguigu.app 包,并在包下创建CanalClient(java 代码)代码如下:

    package com.atguigu.app;
    
    import com.alibaba.fastjson.JSONObject;
    import com.alibaba.otter.canal.client.CanalConnector;
    import com.alibaba.otter.canal.client.CanalConnectors;
    import com.alibaba.otter.canal.protocol.CanalEntry;
    import com.alibaba.otter.canal.protocol.Message;
    import com.google.protobuf.ByteString;
    import com.google.protobuf.InvalidProtocolBufferException;
    
    import java.net.InetSocketAddress;
    import java.util.List;
    
    public class CanalClient {
    
        public static void main(String[] args) throws InterruptedException, InvalidProtocolBufferException {
    
            //TODO 获取连接
            CanalConnector canalConnector = CanalConnectors.newSingleConnector(new InetSocketAddress("hadoop102", 11111), "example", "root", "123456");
    
            while (true) {
    
                //TODO 连接
                canalConnector.connect();
    
                //TODO 订阅数据库
                canalConnector.subscribe("gmall-2022.*");
    
                //TODO 获取数据
                Message message = canalConnector.get(100);
    
                //TODO 获取Entry集合
                List<CanalEntry.Entry> entries = message.getEntries();
    
                //TODO 判断集合是否为空,如果为空,则等待一会继续拉取数据
                if (entries.size() <= 0) {
                    System.out.println("当次抓取没有数据,休息一会。。。。。。");
                    Thread.sleep(1000);
                } else {
    
                    //TODO 遍历entries,单条解析
                    for (CanalEntry.Entry entry : entries) {
    
                        //1.获取表名
                        String tableName = entry.getHeader().getTableName();
    
                        //2.获取类型
                        CanalEntry.EntryType entryType = entry.getEntryType();
    
                        //3.获取序列化后的数据
                        ByteString storeValue = entry.getStoreValue();
    
                        //4.判断当前entryType类型是否为ROWDATA
                        if (CanalEntry.EntryType.ROWDATA.equals(entryType)) {
    
                            //5.反序列化数据
                            CanalEntry.RowChange rowChange = CanalEntry.RowChange.parseFrom(storeValue);
    
                            //6.获取当前事件的操作类型
                            CanalEntry.EventType eventType = rowChange.getEventType();
    
                            //7.获取数据集
                            List<CanalEntry.RowData> rowDataList = rowChange.getRowDatasList();
    
                            //8.遍历rowDataList,并打印数据集
                            for (CanalEntry.RowData rowData : rowDataList) {
    
                                JSONObject beforeData = new JSONObject();
                                List<CanalEntry.Column> beforeColumnsList = rowData.getBeforeColumnsList();
                                for (CanalEntry.Column column : beforeColumnsList) {
                                    beforeData.put(column.getName(), column.getValue());
                                }
    
                                JSONObject afterData = new JSONObject();
                                List<CanalEntry.Column> afterColumnsList = rowData.getAfterColumnsList();
                                for (CanalEntry.Column column : afterColumnsList) {
                                    afterData.put(column.getName(), column.getValue());
                                }
    
                                //数据打印
                                System.out.println("Table:" + tableName +
                                        ",EventType:" + eventType +
                                        ",Before:" + beforeData +
                                        ",After:" + afterData);
                            }
                        } else {
                            System.out.println("当前操作类型为:" + entryType);
                        }
                    }
                }
            }
        }
    }
    
    

    开启Canal服务端

    [wkf@hadoop102 canal]$ bin/startup.sh
    

    运行客户端,运行过程中向数据库插入一条数据

    image-20220320143959644

    4.2 Kafka模式测试

    1. 修改 canal.properties中 canal的输出 model,默认 tcp,改为输出到 kafka
    ######### common argument #############
    canal.id = 1
    canal.ip =
    canal.port = 11111
    canal.metrics.pull.po rt = 11112
    canal.zkServers =
    # flush data to zk
    canal.zookeeper.flush.period = 1000
    canal.withoutNetty = false
    # tcp, kafka, RocketMQ
    canal.serverMode = kafka
    # flush meta cursor/parse position to file
    
    1. 修改 Kafka集群的地址
    ######### MQ
    canal.mq.servers = hadoop102:9092,hadoop103:9092,hadoop104:9092
    
    1. 修改 instance.properties输出到 Kafka的主题以及分区数
    # mq conf ig
    canal.mq.topic= canal_ test
    canal.mq.partitionsNum=1
    # hash partition config
    #canal.mq.partition=0
    #canal.mq.partitionHash=mytest.person:id,mytest.role:id
    

    注意:默认还是输出到指定Kafka主题的一个 kafka分区,因为多个分区并行可能会打乱 binlog的顺序 如果要提高并行度,首先设置 kafka的分区数 >1,然后设置
    canal.mq.partitionHash属性

    1. 启动 Canal
    [wkf@hadoop102 example]$ cd /opt/module/
    [wkf@hadoop102 canal]$ bin/startup.sh
    
    1. 看到 CanalLauncher你表示启动成功,同时会创建 canal_test主题
    [wkf@hadoop102 canal]$ jps
    2269 Jps
    2253 CanalLauncher
    
    1. 启动 Kafka消费客户端测试,查看消费情况
    [wkf@hadoop 102 kafka]$ bin/kafka console consumer.sh bootstrap server hadoop102:9092 topic canal_test
    

    7)向 MySQL中插入数据后查看消费者控制台

    插入数据

    INSERT INTO user_info VALUES('1001','zhangsan','male'),('1002','lisi','female');
    

    Kafka 消费者控制台

    {"data":[{"id":"1001","name":"zhangsan","sex":"male"},{"id":"1002","name":"lisi","sex":"female"}],"database":"gmall2022","es":1639360729000,"id":1,"isDdl":false,"mysqlType":{"id":"varchar(255)","name":"varchar(255)","sex":"varchar(255)"},"old":null,"sql":"","sqlType":{"id":12,"name":12,"sex":12},"table":"user_info","ts":1639361038454,"type":"INSERT"}
    
  • 相关阅读:
    【算法研究】目标检测
    【Java学习笔记】Java中方法和成员变量的访问控制
    DevExpress XtraReports 入门一 创建 Hello World 报表
    整理点dropdownList的应用
    Developer Express 之 XtraReport报表预览控件PrintControl设置
    C#实现winform仿div+css半透明遮罩效果
    动态传递参数到DevExpress.XtraReports的小结 .
    Developer Express 之 XtraReport如何显示设计窗体,打开已设计过的报表
    Developer Express 之 XtraReport如何动态绑定数据
    c#判断右键菜单(ContextMenuStrip)是从哪个控件弹出来的方法
  • 原文地址:https://www.cnblogs.com/wkfvawl/p/16029970.html
Copyright © 2020-2023  润新知