Cloudera集群中提交Spark任务出现java.lang.NoSuchMethodError: org.apache.hadoop.hbase.HTableDescriptor.addFamily错误解决

Cloudera及相关的组件版本

Cloudera: 5.7.0

Hbase: 1.20

Hadoop: 2.6.0

ZooKeeper: 3.4.5

就算是引用了相应的组件依赖,依然是报一样的错误!

错误字符串

Exception in thread "main" java.lang.NoSuchMethodError: org.apache.hadoop.hbase.HTableDescriptor.addFamily(Lorg/apache/hadoop/hbase/HColumnDescriptor;)Lorg/apache/hadoop/hbase/HTableDescriptor;
at com.sae.model.HbaseHelper$$anonfun$createTable$1.apply(HbaseHelper.scala:36)
at com.sae.model.HbaseHelper$$anonfun$createTable$1.apply(HbaseHelper.scala:34)
at scala.collection.IndexedSeqOptimized$class.foreach(IndexedSeqOptimized.scala:33)
at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:108)

解决方案

在网上查到的错误原因是Cloudera版本的Hbase版本和官方的Hbase有某些接口不兼容。。。

找到了错误的原因事情就好解决了:

  • 在项目的pom文件中加入Cloudera的官方maven仓库
<repositories>
<repository>
<id>cloudera</id>
<url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
</repository>
</repositories>
  • 在项目的pom引入Hbase Client的CDH版本依赖
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-client</artifactId>
<version>1.2.0-cdh5.7.0</version>
</dependency>
上一篇:Redis HyperLogLog


下一篇:sqoop mysql--->hive 报错 (ERROR tool.ImportTool: Import failed: java.io.IOException: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.HiveConf)