ToB企服应用市场:ToB评测及商务社交产业平台

标题: 玳数科技集成 Flink CDC 3.0 的实践 [打印本页]

作者: 盛世宏图    时间: 2024-7-26 03:06
标题: 玳数科技集成 Flink CDC 3.0 的实践
摘要:本文投稿自玳数科技工程师杨槐老师,介绍了 Flink CDC 3.0 与 ChunJun 框架在玳数科技的集成实践。重要分为以下六个内容:
    1. 配景

玳数科技对内外部用户提供了一站式的数据开辟管理平台,此中数据集成是用户使用最为广泛的一个重要功能,底层基于开源项目 ChunJun 完成离线和实时数据收罗,支撑平台用户完成异构数据源的迁移和数据入湖入仓作业。
在离线同步场景,随着引擎层不停迭代,ChunJun 基于 Flink 1.10/1.12/1.16 提供了近百个数据源毗连器,对引擎团队造成很大的维护压力,从稳固性以及维护成本考虑,研发团队决定离线同步作业固定使用某一个 Flink 版本。
在实时同步场景,用户对 Flink 新功能和特性更为关注,因此我们的实时同步和实时盘算作业会根据 Flink 版本举行升级维护。考虑到实时同步场景下的稳固性挑战和上卑鄙表结构同步挑战,我们也在积极参考业界的可靠方案举行实践。
2. 技术选型

在基于Flink架构的实时收罗领域中,Flink CDC 的成熟度和社区繁荣度都是压倒统统的,经过了广泛验证。尤其是今年发布了 3.x 版本,功能更为完满,聚焦于数据集成领域,支持了全增量一体化、整库同步、Schema Evolution 等本领。
ChunJun 的 CDC 毗连器基于 Canal 或者 logminer 实现实时收罗,并提供了 Schema Evolution 等雷同功能,和 Flink CDC 3.0 功能有许多的雷同。我们在思考是否可以使用 Flink CDC 作为玳数科技实时同步的底层框架支持,如许能避免许多 CDC 相干的功能重复开辟,同时考虑 Flink CDC 的发展速度,也能淘汰后续升级、维护等成本,能让引擎团队将重心集中在核心毗连器以及 Flink 拓展上,并开始了接入 Flink CDC 3.0 的实践。
3. 架构设计

在对 Flink CDC 3.0 的集成上,我们遵循以下几个前提:
终极决定使用 ChunJun 框架作为同一入口,以 Json 作为任务描述载体,支持 ChunJun pipeline 和 Flink CDC pipeline 算子链的构造,同时将数据源毗连器举行融合,ChunJun-connector 或者 Flink CDC-pipeline-connector毗连器均可在 ChunJun 或者 Flink CDC 任务中使用。

接纳这种架构,能带来以下好处:
4. 挑战和办理方案

4.1 客户端入口同一

4.1.1 挑战

如今内部数据平台通过 Json 同一描述各种同步任务,而 Flink CDC 基于 yaml 格式举行描述,因此为了保证同一性,我们需要 Json 支持描述 Flink CDC yaml 的全部信息,且结构和 ChunJun 任务的结构只管同等,淘汰两者差异性。
4.1.2 办理方案

通过对比 Flink CDC Yaml 和 ChunJun Json 结构之后,如下图,我们发现两者需要描述的信息和内部结构也是雷同的,因此只需要注意保证毗连器参数 key 的同等性,ChunJun 的 Json 结构是完全可以取代 Yaml 的。

在配置文件同一之后,我们将 Flink 任务的构建入口同一为 ChunJun 的 Main 函数而不是 Flink CDC 的 cli 模块。因此 ChunJun 的 Main 函数在内部将 Json 转为 ChunJun 的 SyncConf 对象后,CDC 类型任务会将 SyncConf 转为 Flink CDC 的 PipelineDef 对象,交由 FlinkPipelineComposer 构建任务。
4.2 sink的完满

4.2.1 挑战

ChunJun毗连器包含了丰富的经过生产验证的 connector 毗连器,将 ChunJun 毗连器集成到 Flink CDC 3.0,能极大地丰富 CDC pipeline 的使用场景。Flink CDC 提供了对 Flink Sinkv2 实现的毗连器对接,对 SinkFunction 毗连器未提供对接实现,引擎团队需要实现基于 SinkFunction 对接实现,支持 Schema Evolution 等功能,以及 ChunJun 毗连器和 Flink CDC 毗连器流转数据的转换。
4.2.2 办理方案

Flink CDC 为了卑鄙支持 Schema Evolution 功能,需要 Sink 端支持 DataChangeEvent 数据写入之外,还需要支持 Flush Event 以及 SchemaChangeEvent 等事件的处理。在吸收 Flush Event 事件时,需要刷写出当前 Subtask的缓存数据并提交到数据源并通知 SchemaRegistry 当前 Subtask 完成了数据刷写过程。
Flink CDC 提供了 DataSinkWriterOperator 对 Flink Sink 接口举行代理,以完成上述 Flush Event 事件处理逻辑,因此提供一个对 SinkFunction 的代理类是 ChunJun 毗连器集成到FlinkCDC融合的关键。
借鉴 DataSinkWriterOperator,我们基于 Flink 的StreamSink自定一个 SinkFunctionOperator 类,对 SinkFunction 做代理。其重要改动点在于 Flush Event 处理以及 SchemaRegistry 的交互,重要两个改动点如下:
下图是 Flink CDC 收罗 Mysql 写入 ChunJun Mysql Sink 毗连器的一个任务示例:

4.3 route 配置增强

4.3.1 挑战

Flink CDC 在实时同步中还提供了 Route 模块,举行上卑鄙表的映射关系处理。如下述配置为上游 dt 下的全部表同步到卑鄙 sync 一张表中。
  1. route:
  2.    - source-table: dt.\.*
  3.     sink-table: dt.sync
  4.     description: sync all sharding tables to one
复制代码
但是在使用中,发现 route 算子在某些场景下的支持不敷全面,比如我希望同步过程中,卑鄙表会加上 sync 后缀代表是 CDC 任务同步的表,是比较难配置的。由于 Flink CDC 3.0 的 route 算子的映射关系配置中,卑鄙必须是完整的 ‘schemaName’.‘tableName’ 表达方式,而不支持占位符,如许会导致上游表的数量和 route 配置的数量同等。
4.3.2 办理方案

我们在 route 算子做了部分改造,支持配置 ${schemaName} ${tableName} 作为占位符,下述脚本逻辑代表上游表写入上游表名加上 _CDC 后缀,如上游 dt.t1 的数据写入卑鄙 dt.t1_CDC 表。
  1. route:
  2.   - source-table: dt.\.*
  3.     sink-table: dt.${tableName}_CDC
复制代码
4.4 SchemaChange 非常优化

4.4.1 挑战

Flink CDC 提供了多种计谋处理 SchemaChange 事件,如忽略直接抛弃,抛出非常,自动执行计谋。Flink CDC 3.0 版本在 EVOLVE 场景做了比较完满支持,而 EXCEPTION 场景下的处理比较粗暴,上游产生 SchemaChangeEvent 数据后直接抛出非常,让任务失败退出。
当配置抛出非常计谋处理 schemaChange 事件后,客户在卑鄙手动操作 Schema 变更完成后,任务上一次 checkpoint 和当前 SchemaChangeEvent 之间的数据较难规复。由于 Flink CDC 在抛出非常前,并没有将 sink 端缓存的数据举行 Flush,即 Sink 没有接受到 Flush Event 举行处理。
4.4.2 办理方案

我们的办理方案是复用了 EVOLVE 全部流程,仅仅在 MetadataApplier#applySchemaChange 自动执行 Schema 变更前判断是否支持执行即可:SchemaChangeBehavior 为 EXCEPTION 时,执行 MetadataApplier#applySchemaChange 前抛出非常,如许由于复用了 EVOLVE 流程, MetadataApplier#applySchemaChange 执行之前,Sink 端肯定会将全部数据刷新到数据源,客户只需要将任务的位点选择 SchemaChangeEvent的position,然后重新运行即可保证数据的同等性。
我们在 SchemaChangeEvent 里加上了 meta 信息,如 binlog 的点位信息,在抛出非常的时候会表现出相干位点信息,客户重跑任务,重新选择位点就很方便,直接选择日记里表现的位点信息即可。

5. 上线效果

引擎层基于上述方案对 ChunJun 和 Flink CDC 整合之后,节约了毗连器层大量对接时间。以 mysql CDC->paimon 入湖为例,引擎研发团队只需要和平台研发团队举行简单的联调,不需要额外的毗连器层的开辟就可以快速上线,有效降低了开辟运维成本。
同时使用 Flink CDC 也为玳数科技产品提供了全增量一体化、多表同步、SchemaEvolution 等强大功能。

6. 将来规划

如今以 Flink CDC 为底子的 mysql->paimon 入湖链路已在玳数科技产品上线,正在规划 Doris、StartRocks 等组件快速上线。同时我们密切关注 Flink CDC 社区的发展,将内部对 Flink CDC 的改动贡献到社区,淘汰两者差异性。玳数科技集成 Flink CDC 的将来规划重要如下:

欢迎大家多多关注 Flink CDC,从钉钉用户交换群[1]、微信公众号[2]、Slack 频道[3]、邮件列表[4]参加 CDC 用户社区,以及在 Flink CDC GitHub 仓库[5]上加入代码贡献!

[1] “ Flink CDC 社区 ② 群”群的钉钉群号:80655011780

[2] ” Flink CDC 公众号“的微信号:ApacheFlinkCDC

[3] https://flink.apache.org/what-is-flink/community/#slack
[4] https://flink.apache.org/what-is-flink/community/#mailing-lists
[5] https://github.com/apache/flink-cdc

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4