我的hadoop版本是3.1.3,Flink版本是1.14。不知道是hadoop版本的原因还是Flink版本更新的原因。当我运行一个简单的Flink测试时,虽然结果出来了但是后面还跟着一段报错信息。
测试命令:
flink run -m yarn-cluster -p 2 -yjm 2G -ytm 2G $FLINK_HOME/examples/batch/WordCount.jar
报错信息:
Trying to access closed classloader. Please check if you store classloaders directly or indirectly in static fields. If the stacktrace suggests that the leak occurs in a third party library and cannot be fixed immediately, you can disable this check with the configuration 'classloader.check-leaked-classloader'.
解决方法:
修改:flink/conf 的 flink-conf.yaml文件
添加:
classloader.check-leaked-classloader: false
注意:false前需要加上一个空格
版权归原作者 遇安.YuAn 所有, 如有侵权,请联系我们删除。