在使用pyflink udf时,引用第三方依赖时出现了一下问题
如果直接通过 python app.py 运行是没有问题的,可以出结果,但是提交到集群上就不行了
flink版本 1.11,是flink on yarn集群部署的,通过 per-job模式提交任务,集群一共三台机器,在其中一台上提交的
下面是代码截图
麻烦给看一下,上面那个报错是因为什么呀?需要在其他两台机器上提前把cache_dir弄好吗? 我看日志是有尝试在hdfs上新创建一个临时文件夹来放置依赖tar.gz文件的
祝好~