您好,请教一个问题,flink sql 读取mysql如何分页查询。
在spark中,dataframe可以通过dbtable,传入分页查询的语句。
val resultDF = session.read.format("jdbc")
.option("url",jdbcUrl)
.option("dbtable" , selectSql )
.option("user",user)
.options(writeOpts)
.option("password",password).load()
在flink中,通过connector,会读取全表么?
String insertSql = CREATE TABLE MyUserTable (
id BIGINT,
name STRING,
age INT,
status BOOLEAN,
PRIMARY KEY (id) NOT ENFORCED
) WITH (
'connector' = 'jdbc',
'url' = 'jdbc:mysql://localhost:3306/mydatabase',
'table-name' = 'users'
);
tableEnv.executeSql(insertSql);
以上的executesql会进行全表读取么?
还是执行了下面的sql,才会读取内容?
String querysql = ”select * from MyUserTable limit 1 to 10“;
tableEnv.sqlQuery(querySql);
执行上看的sqlQuery才会真正的读取数据吧。
问题比较简单,只是有点懵,不知道跟spark是否有区别。
谢谢
--
Sent from:
http://apache-flink.147419.n8.nabble.com/