flink sql 1.11 kafka cdc与holo sink

classic Classic list List threaded Threaded
2 messages Options
Reply | Threaded
Open this post in threaded view
|

flink sql 1.11 kafka cdc与holo sink

于洋
flink sql 1.11 创建kafka source 表 ,kafka数据是canal采集的mysql 信息,'format' = 'canal-json', 问题是 1,在source表中只能有与msyql对应的schema信息么,(也就是data[{}]里面的字段)能不能获取table,ts这种字段的值? 2,对于一个topic中有多张mysql binlog信息的表,kafka source表是如何区分的,依赖于schema的不同吗? 3,这种source表,与holo sink 表结合使用,遇到delete类型的数据会在holo中删除该条数据吗?'ignoreDelete' = 'false'
Reply | Threaded
Open this post in threaded view
|

Re: flink sql 1.11 kafka cdc与holo sink

Jark
Administrator
1. 目前不支持。 已有 issue 跟进支持 https://issues.apache.org/jira/browse/FLINK-20385
2. 配上 canal-json.table.include = 't1'   来过滤表。暂不支持正则过滤。
3. 会

Best,
Jark

On Wed, 9 Dec 2020 at 11:33, 于洋 <[hidden email]> wrote:

> flink sql 1.11 创建kafka source 表 ,kafka数据是canal采集的mysql 信息,'format' =
> 'canal-json', 问题是
> 1,在source表中只能有与msyql对应的schema信息么,(也就是data[{}]里面的字段)能不能获取table,ts这种字段的值?
> 2,对于一个topic中有多张mysql binlog信息的表,kafka source表是如何区分的,依赖于schema的不同吗?
> 3,这种source表,与holo sink 表结合使用,遇到delete类型的数据会在holo中删除该条数据吗?'ignoreDelete' =
> 'false'