DM 源码阅读系列文章(九)shard DDL 与 checkpoint 机制的实现

本文为 TiDB Data Migration 源码阅读系列文章的第九篇,在 《DM 源码阅读系列文章(八)Online Schema Change 同步支持》 中我们详细介绍了 DM 对 online schema change 方案的同步支持,对 online schema change 同步方案以及实现细节等逻辑进行了分析。

在本篇文章中,我们将对 shard DDL 同步机制以及 checkpoint 机制等进行详细的介绍,内容包括 shard group 的定义、shard DDL 的同步协调处理流程、checkpoint 机制以及与之相关的 safe mode 机制。

shard DDL 机制的实现

DM 中通过 库表路由与列值转换 功能,实现了对分库分表合并场景下 DML 的同步支持。但当需要同步的各分表存在 DDL 变更时,还需要对 DDL 的同步进行更多额外的处理。有关分表合并时 shard DDL 同步需要处理的问题以及 DM 中的同步支持原理,请先阅读 《TiDB Ecosystem Tools 原理解读系列(三)TiDB Data Migration 架构设计与实现原理》

shard group

《TiDB Ecosystem Tools 原理解读系列(三)TiDB Data Migration 架构设计与实现原理》 中,我们介绍了 DM 在处理 shard DDL 同步时引入了两级 shard group 的概念,即用于执行分表合并同步任务的各 DM-worker 组成的 shard group、每个 DM-worker 内需要进行合表同步的各上游分表组成的 shard group。

DM-worker 组成的 shard group

由 DM-worker 组成的 shard group 是由集群部署拓扑及同步任务配置决定的,即任务配置文件中定义的需要进行合表同步的所有上游 MySQL 实例对应的所有 DM-worker 实例即组成了一个 shard group。为了表示同步过程中的相关动态信息,DM-master 内部引入了两个概念:

  • Lock:对于每组需要进行合并的表,其中每一条需要进行同步协调的 shard DDL,由一个 Lock 实例进行表示;每个 Lock 实例在有 shard DDL 需要协调同步时被创建、在协调同步完成后被销毁;在 dmctl 中使用 show-ddl-locks 命令查看到的每一个 Lock 信息即对应一个该实例

  • LockKeeper:维护所有的 Lock 实例信息并提供相关的操作接口

Lock 中各主要成员变量的作用如下:

成员变量 作用
ID 用于标识一个 lock,由同步任务名、合并后同步到的目标表对应的 schema 及 table 名构造得到
Task 该 lock 所对应的同步任务名
Owner 该 lock 的 owner 对应的 ID,即第一个向 DM-master 上报 shard DDL 信息的 DM-worker 对应的 ID
remain 尚未上报待同步 shard DDL 信息的 DM-worker 数量
ready 标识各 DM-worker 是否已上报过待同步 shard DDL 信息
ddls 该 lock 对应的需要进行协调同步到下游的 DDL statements(shard DDL 通过 TiDB parser 转换后可能会被分拆为多条 DDL

DM-worker 内分表组成的 shard group

每个 DM-worker 内的 shard group 是由对应上游 MySQL 实例内分表及同步任务配置决定的,即任务配置文件中定义的对应 MySQL 实例内需要进行合并同步到同一个下游目标表的所有分表组成一个 shard group。在 DM-worker 内部,我们维护了下面两个对象:

  • ShardingGroup:对于每一组需要进行合并的表,由一个 ShardingGroup 实例进行表示;每个 ShardGroup 实例在同步任务启动阶段被创建,在任务停止时被销毁

  • ShardingGroupKeeper:维护所有的 ShardingGroup 实例信息并提供相关的操作接口

ShardingGroup 中各主要成员变量的作用如下:

成员变量 作用
sourceID 当前 DM-worker 对应于上游 MySQL 的 source-id
remain 尚未收到对应 shard DDL 的分表数量
sources 标识是否已收到各上游分表对应的 shard DDL 信息
meta 当前 shard group 内各分表收到的 DDL 相关信息

shard DDL 同步流程

对于两级 shard group,DM 内部在依次完成两个级别的 相应的 shard DDL 同步协调。

  1. 对于 DM-worker 内由各分表组成的 shard group,其 shard DDL 的同步在对应 DM-worker 内部进行协调

  2. 对于由各 DM-worker 组成的 shard group,其 shard DDL 的同步由 DM-master 进行协调

DM-worker 间 shard DDL 协调流程

我们基于在 《TiDB Ecosystem Tools 原理解读系列(三)TiDB Data Migration 架构设计与实现原理》 中展示过的仅包含两个 DM-worker 的 shard DDL 协调流程示例(如下图)来了解 DM 内部的具体实现。

shard DDL 协调流程示例

shard DDL 协调流程示例
  1. DM-worker-1 将 shard DDL 信息发送给 DM-master

    a. 当 DM-worker-1 内部 shard DDL 协调完成时,DM-worker-1 将对应的 shard DDL 信息保存在 channel 中供 DM-master 通过 gRPC 获取

    b. DM-master 在 fetchWorkerDDLInfo 方法中以 gRPC streaming 的方式读取到 DM-worker-1 的 shard DDL 信息

    c. DM-master 调用 ShardingGroupKeeper 的 TrySync 方法创建对应的 lock 信息并在 lock 中标记已收到 DM-worker-1 的 shard DDL 信息

  2. DM-master 将 lock 信息发回给 DM-worker-1

    a. DM-master 以 gRPC streaming 的方式将 lock 信息发送给 DM-worker-1

    b. DM-worker-1 将来自 DM-master 的 lock 信息保存在内存中用于在 DM-master 请求 DM-worker 执行/跳过 shard DDL 时进行验证

  3. DM-worker-2 将 shard DDL 信息发送给 DM-master(流程与 step.1 一致)

  4. DM-master 将 lock 信息发回给 DM-worker-2(流程与 step.2 一致)

  5. DM-master 协调 DM-worker-1 向下游同步 shard DDL

    a. DM-master 根据 step.1 与 step.3 时收到的 shard DDL 信息判定已经收到 shard group 内所有 DM-worker 的 shard DDL 信息

    b. DM-master 在 resolveDDLLock 方法中向 DM-worker-1 发送向下游同步 shard DDL 的请求Exec 参数为 true

  6. DM-worker-1 向下游同步 shard DDL

    a. DM-worker-1 接收到来自 DM-master 的向下游执行 shard DDL 的请求

    b. DM-worker-1 构造 DDL job 并添加到 DDL 执行队列中

    c. DM-worker-1 将 shard DDL 执行结果保存在 channel 中供 DM-master 通过 gRPC 获取

  7. DM-worker-2 忽略向下游同步 shard DDL

    a. DM-master 获取 DM-worker-1 向下游同步 shard DDL 的结果判断得知 DM-worker-1 同步 shard DDL 成功

    b. DM-master 向 DM-worker-2 发送忽略向下游同步 shard DDL 的请求Exec 参数为 false

    c. DM-worker-2 根据 DM-master 请求忽略向下游同步 shard DDL

DM-worker 内 shard DDL 同步流程

我们基于在 《TiDB Ecosystem Tools 原理解读系列(三)TiDB Data Migration 架构设计与实现原理》 中展示过的一个 DM-worker 内仅包含两个分表 (table_1,table_2) 的 shard DDL(仅一条 DDL)协调处理流程示例来了解 DM 内部的具体实现。

  1. DM-worker 收到 table_1 的 DDL

    a. 根据 DDL 及 binlog event position 等信息更新对应的 shard group

    b. 确保 binlog replication 过程已进入 safe mode(后文介绍 checkpoint 机制时会再介绍 safe mode)

    c. 更新 table_1 的 checkpoint(后文会详细介绍 checkpoint 机制)

  2. DM-worker 继续解析后续的 binlog event

    根据 step.1 时返回的更新后的 shard group 信息得知还未收到 shard group 内所有分表对应的 shard DDL,不向下游同步 shard DDL 并继续后续解析

  3. 忽略 table_1 的 DML 并同步 table_2 的 DML

    由于 table_1 已收到 shard DDL 但 shard DDL 自身还未完成同步忽略对 table_1 相关 DML 的同步

  4. DM-worker 收到 table_2 的 DDL(流程与 step.1 一致)

  5. DM-worker 向下游同步 shard DDL

    a. 根据 step.4 时返回的更新后的 shard group 信息得知已经收到 shard group 内所有分表对应的 shard DDL

    b. 尝试让 binlog replication 过程退出 safe mode

    c. 将当前 shard DDL 同步完成后 re-sync 时重新同步 step.3 忽略的 DML 所需的相关信息保存在 channel 中

    d. 等待已分发的所有 DML 同步完成(确保等待并发同步的 DML 都同步到下游后再对下游 schema 进行变更)

    e. 将 shard DDL 相关信息保存在 channel 中以进行 DM-worker 间的同步(见前文DM-worker 间 shard DDL 协调流程

    f. 待 DM-worker 间协调完成后,向下游同步 shard DDL

  6. 将 binlog 的解析位置重定向回 step.1 对应 DDL 后的 binlog event position 进入 re-sync 阶段

    根据 step.5 中保存的信息将 binlog 的解析位置重定向回 step.1 对应的 DDL 后的 binlog event position

  7. 重新解析 binlog event

  8. 对于不同表的 DML 做不同的处理

    a. 对于 table_1 在 step.3 时忽略的 DML,解析后向下游同步

    b. 对于 table_2 的 DML,根据 checkpoint 信息忽略向下游同步

  9. 解析到达 step.4 时 DDL 对应的 binlog position,re-sync 阶段完成

    a. 解析 binlog position 到达 step.4 的 DDL

    b. 结束 re-sync 过程

  10. 继续进行后续的 DDL 与 DML 的同步

需要注意的是,在上述 step.1 与 step.4 之间,如果有收到 table_1 的其他 DDL,则对于该 shard group,需要协调同步由一组 shard DDL 组成的 ShardingSequence。当在 step.9 对其中某一条 shard DDL 同步完成后,如果有更多的未同步的 shard DDL 需要协调处理,则会重定向到待处理的下一条 shard DDL 对应的位置重新开始解析 binlog event

checkpoint 机制的实现

DM 中通过 checkpoint 机制来实现同步任务中断后恢复时的续传功能。对于 load 阶段,其 checkpoint 机制的实现在 《DM 源码阅读系列文章(四)dump/load 全量同步的实现》 文章中我们已经进行了介绍,本文不再赘述。在本文中,我们将介绍 binlog replication 增量同步阶段的 checkpoint 机制的实现及与之相关的 safe mode 机制的实现。

checkpoint 机制

DM 在 binlog replication 阶段以 binlog event 对应的 position 为 checkpoint,包括两类:

  1. 全局 checkpiont:对应已成功解析并同步到下游的 binlog event 的 position,同步任务中断恢复后将从该位置重新进行解析与同步

  2. 每个需要同步 table 的 checkpoint:对应该 table 已成功解析并同步到下游的 binlog event 的 position,主要用于在 re-sync 过程中避免对已同步的数据进行重复同步

DM 的 checkpoint 信息保存在下游数据库中,通过 RemoteCheckPoint 对象进行读写,其主要成员变量包括:

  • globalPoint:用于保存全局 checkpoint

  • points:用于保存各 table 的 checkpoint

checkpoint 信息在下游数据库中对应的 schema 通过 createTable 方法进行创建,其中各主要字段的含义为:

字段 含义
id 标识待同步数据对应的上游数据源,当前该字段值对应为 source-id
cp_schema checkpoint 信息所属 table 对应的 schema 名称,对于全局 checkpoint 该字段值为空字符串
cp_table checkpoint 信息所属 table 的名称,对于全局 checkpoint 该字段值为空字符串
binlog_name checkpoint 信息的 binlog filename
binlog_pos checkpoint 信息的 binlog event position
is_global 标识该条 checkpoint 信息是否是全局 checkpoint

对于全局 checkpoint,在以下情况下会更新内存中的信息:

对于各 table checkpoint,在以下情况下会更新内存中的信息:

对于全局与 table 的 checkpoint,会在以下情况下 flush 到下游数据库中:

值得注意的是,在 shard DDL 未同步到下游之前,为确保中断恢复后仍能继续整个 shard DDL 的协调过程,DM 不会将全局 checkpoint 更新为比 shard DDL 起始 position 更大的 positionDM 也不会将 shard DDL 协调过程中对应 table 的 checkpoint flush 到下游

safe mode 机制

当同步任务中断恢复后,DM 在 binlog replication 阶段通过 checkpoint 机制保证了重新开始同步的起始点前的数据都已经成功同步到了下游数据库中,即保证了 at-least-once 语义。但由于 flush checkpoint 与同步 DDL、DML 到下游不是在同一个事务中完成的,因此从 checkpoint 开始重新同步时,可能存在部分数据被重复同步的可能,即不能保证 at-most-once 。

在 DM 的 binlog replication 阶段,通过增加 safe mode 机制确保了重复同步数据时的可重入,即:

目前,safe mode 会在以下情况时启用:

小结

本篇文章详细地介绍了 shard DDL 机制与 checkpoint 机制的实现,内容包括了两级 shard group 的定义与 DM-worker 间及 DM-worker 内的 shard DDL 同步协调处理流程、checkpoint 机制及与之相关的 safe mode 机制。下一篇文章中,我们将介绍用于保证 DM 正确性与稳定性的测试框架的实现,敬请期待。

分享到微信

打开微信,使用 “扫一扫” 即可将网页分享至朋友圈。