首页 文章

Hbase-Spark:线程“main”中的异常java.lang.NoClassDefFoundError:org / apache / spark / Logging

提问于
浏览
0

我正在尝试使用Spark 2.0.2从本页中的代码获取hbase数据库(1.2.5)中的数据:https://github.com/apache/hbase/blob/master/hbase-spark/src/main/java/org/apache/hadoop/hbase/spark/example/hbasecontext/JavaHBaseBulkGetExample.java

但我得到这个错误:

线程“main”中的异常java.lang.NoClassDefFoundError:org / apache / spark /在java的java.lang.ClassLoader.defineClass(ClassLoader.java:763)中的java.lang.ClassLoader.defineClass1(Native Method)中记录 . java.net.URLClassLoader $ java(URLClassLoader.java:73)java.net.URLClassLoader $ 1的java.net.URLClassLoader.defineClass(URLClassLoader.java:467)中的security.SecureClassLoader.defineClass(SecureClassLoader.java:142) .run(URLClassLoader.java:368)java.net.URLClassLoader $ 1.run(URLClassLoader.java:362)java.security.AccessController.doPrivileged(Native Method)java.net.URLClassLoader.findClass(URLClassLoader.java): 361)java.lang.ClassLoader.loadClass(ClassLoader.java:424)at java.lang.ClassLoader.loadClass(ClassLoader.java:357)at com.cloudera.spark.hbase.JavaHBaseContext . (JavaHBaseContext.scala:23) at org.hipi.examples.Test.main(Test.java:71)at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccesso) rImpl.java:62)在org.apache.spark.deploy.SparkSubmit $的java.lang.reflect.Method.invoke(Method.java:498)的sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) . org $ apache $ spark $ deploy $ org.apache.spark.deploy.SparkSubmit $ .doRunMain $ 1(SparkSubmit.scala:185)org.apache.spark.deploy.SparkSubmit上的$ SparkSubmit $$ runMain(SparkSubmit.scala:736)位于org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)的org.apache.spark.deploy.SparkSubmit $ .main(SparkSubmit.scala:124)的$ .submit(SparkSubmit.scala:210)引起: java.lang.ClassNotFoundException:org.apache.spark.Logging java.net.URLClassLoader.findClass(URLClassLoader.java:381),位于java.lang.ClassLoader的java.lang.ClassLoader.loadClass(ClassLoader.java:424) . loadClass(ClassLoader.java:357)......还有22个

我在互联网上看到Logging类只存在于spark 1.5.2及更低版本中 .

是否有任何解决方案可以使Spark 2.0.2工作?

1 回答

相关问题