你得确认hadoop classpath返回的是完整的,正常情况下hadoop classpath这个命令会把所有的hadoop jar都包含进去的
如果报类或者方法不存在需要确认相应的jar是否存在,并且包含进去了
社区推荐hadoop classpath的方式主要是想让Flink做到hadoop free,这样在hadoop2和hadoop3都可以正常运行了
Best,
Yang
Jacob <
[hidden email]> 于2020年12月15日周二 上午9:25写道:
> 谢谢回复!
>
> 这个文档我也有查看
>
> 前几日在flink1.9-1.12各个客户端测试提交job时候发现
> 对于1.10+的版本,我手动导入export HADOOP_CLASSPATH=`hadoop
>
> classpath`,没有效果,各种报错,基本都是Hadoop相关类、方法不存在(NoSuchMethod之类错误),把pom文件改来改去依然无用,后来只在pom文件中导入依赖:flink-shaded-hadoop-2-uber*-*,竟然可以正常提交并运行job了。
>
>
>
>
> --
> Sent from:
http://apache-flink.147419.n8.nabble.com/