1.概述与架构
1.1 概述

1.2 架构与原理

注意:每个capture负责拉取TiKV的部分日志,每个capture拉取的日志量均不同,并对拉取的那部分日志在capture中进行排序,最后这几个capture会协同的将所有数据集中到一个capture中。
1.3 适用场景

TiCDC适合上游数据库是TiDB,下游数据库支持Mysql兼容的任何数据库和kafka, 适合异步复制的场景。
一套TiCDC集群可以开启多个任务。
1.4 不适用场景

2 TiCDC的部署
2.1 推荐配置

2.2 随TiDB进行全新部署

2.3 对已有TiDB进行扩容

3.TiCDC的管理工具(cdc cli)

3.1 创建TiCDC同步任务

sink-uri:配置下游数据库地址

注意:
changefeed-id可以手工指定,若不指定则有默认值。
start-ts默认为当前时间。

3.2 查询所有TiCDC的同步任务

checkpoint:表示当前已经复制到哪里了。
state:normal/finished/stop
3.3 查询指定任务

3.4 管理TiCDC同步任务

3.5 更新TiCDC同步任务

更新同步任务必须先暂停,再修改配置,最后再恢复任务。
4.监控TiCDC

5.TiCDC的限制
6.随堂作业
(1)

答案:ACD
解析:TiCDC集群中的capture的可以是一个,但TiCDC会失去高可用性。
(2)

答案:BD
解析:changefeed-id可以手工指定,若不指定则有默认值。更新同步任务必须先暂停。
