Hi,
直接给hive表增加字段遇到的具体问题是什么呢?把stacktrace贴一下吧。
On Wed, Sep 23, 2020 at 6:50 PM china_tao <
[hidden email]> wrote:
> flink1.11.1,flink sql,已经实现flink sql
> 读取kafka,存储到hive。现在的问题是,kafka源增加字段了,flink
> sql中的hive如何修改。直接在hive中增加字段的话,每次启动,会报 hive表已经存在,如果drop table if
> exists的话,历史数据就会丢。请问大家是如何处理的,谢谢。
>
>
>
> --
> Sent from:
http://apache-flink.147419.n8.nabble.com/--
Best regards!
Rui Li