Could not find a file system implementation for scheme 'hdfs'. The scheme is not directly supported

Flink应用提交到集群报错:

Could not find a file system implementation for scheme ‘hdfs’. The scheme is not directly supported by Flink and no Hadoop file system to support this scheme could be loaded.
在这里插入图片描述
产生上述问题是在Flink中操作了HDFS文件系统(比如checkpoint到HDFS) 但是缺少配置导致的

解决方法:

1.环境变量加入以下配置(别忘了刷新环境变量让后重启Flink 或者刷新环境变量无效的可以重启)
HADOOP_HOME=xxx
export HADOOP_HOME
export HADOOP_CLASSPATH=`hadoop classpath`

2.如果第一个步骤确定没问题还是不行的话 需要下载一个jar包放在Flink的lib目录下

下载地址:https://repo.maven.apache.org/maven2/org/apache/flink/flink-shaded-hadoop-2-uber/
要按照HADOOP版本下载
我这里是2.9.2
在这里插入图片描述

放进去后要重启Flink集群 部分系统要重启系统才行 我这里就是放进去了不行 重启后好了!!!

你可能感兴趣的:(大数据,flink,hdfs)