1.概述与架构
1.1 概述
1.2 架构与原理
注意:每个capture负责拉取TiKV的部分日志,每个capture拉取的日志量均不同,并对拉取的那部分日志在capture中进行排序,最后这几个capture会协同的将所有数据集中到一个capture中。
1.3 适用场景
TiCDC适合上游数据库是TiDB,下游数据库支持Mysql兼容的任何数据库和kafka, 适合异步复制的场景。
一套TiCDC集群可以开启多个任务。
1.4 不适用场景
2 TiCDC的部署
2.1 推荐配置
2.2 随TiDB进行全新部署
2.3 对已有TiDB进行扩容
3.TiCDC的管理工具(cdc cli)
3.1 创建TiCDC同步任务
sink-uri:配置下游数据库地址
注意:
changefeed-id可以手工指定,若不指定则有默认值。
start-ts默认为当前时间。
3.2 查询所有TiCDC的同步任务
checkpoint:表示当前已经复制到哪里了。
state:normal/finished/stop
3.3 查询指定任务
3.4 管理TiCDC同步任务
3.5 更新TiCDC同步任务
更新同步任务必须先暂停,再修改配置,最后再恢复任务。
4.监控TiCDC
5.TiCDC的限制
6.随堂作业
(1)
答案:ACD
解析:TiCDC集群中的capture的可以是一个,但TiCDC会失去高可用性。
(2)
答案:BD
解析:changefeed-id可以手工指定,若不指定则有默认值。更新同步任务必须先暂停。