首页 文章

spark提交中不支持的类版本错误

提问于
浏览
2

尝试运行我使用maven和jdk1.8在安装了Java版本的远程机器上构建的spark应用程序:jdk 1.7 . 使用spark-submit命令:

./bin/spark-submit --class myapp.Main --master local[*] /home/mbala/myJars/CDCJar/myapp-0.0.1-SNAPSHOT.jar /home/mbala/myJars/CDCJar/previous.csv /home/mbala/myJars/CDCJar/source.csv /home/mbala/fer

低于例外情况:

线程“main”中的异常java.lang.UnsupportedClassVersionError:myapp / Main:java.lang.ClassLoader.defineClass(ClassLoader.java:800)java.lang.ClassLoader.defineClass1(Native Method)中不支持的major.minor版本52.0 java.net上的java.net.URLClassLoader.defineClass(URLClassLoader.java:449)java.net.URLClassLoader.access $ 100(URLClassLoader.java:71)java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142) java.com.URLClassLoader $ 1.run(URLClassLoader.java:361)java.net.URLClassLoader $ 1.run(URLClassLoader.java:355)java.security.AccessController.doPrivileged(Native Method)java.net.URLClassLoader.findClass(URLClassLoader) .java:354)java.lang上的java.lang.ClassLoader.loadClass(ClassLoader.java:358)中的java.lang.ClassLoader.loadClass(ClassLoader.java:425)中的java.lang.Class.forName0(Native Method) . org.apache.spark.uploy.SparkSubmit $ .org $ apache $ spark $ org.apache.spark.util.Utils $ .classForName(Utils.scala:225)中的lang.Class.forName(Class.java:274)部署$ SP arkSubmit $$ runMain(SparkSubmit.scala:686)atg.apache.spark.deploy.SparkSubmit $ .doRunMain $ 1(SparkSubmit.scala:185)at org.apache.spark.deploy.SparkSubmit $ .submit(SparkSubmit.scala: 210)org.apache.spark.deploy.SparkSubmit $ .main(SparkSubmit.scala:124)at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

1 回答

  • 1

    如果使用 Java Development Kit 8 构建 Java 程序,则需要 Java Runtime of at least 8 才能运行它,否则会出现此异常 . 升级远程计算机上的java版本或使用 JDK 7 构建以避免此类问题 .

相关问题