总结

查阅诸多资料得出的结论就是:项目编译得到的class文件的版本高于运行环境中jre的版本号,高版本JDK编译的class不能在低版本的jvm虚拟机下运行,否则就会报这类错,因此无法运行!49,50,51,52是Java编译器内部的版本号,版本对应信息如下:

  Unsupported major.minor version 52.0 对应于 JDK1.8(JRE1.8) 

  Unsupported major.minor version 51.0 对应于 JDK1.7(JRE1.7) 

  Unsupported major.minor version 50.0 对应于 JDK1.6(JRE1.6) 

  Unsupported major.minor version 49.0 对应于 JDK1.5(JRE1.5) 

  因此出现问题的原因就是:编译产生的class文件是jdk1.8版本的,而jvm环境低于1.8,因此报错:

只要把spark-env.sh中JAVA_HOME的参数修改为已安装的jdk目录就可以了!

原文地址:https://www.cnblogs.com/9635741zly/p/14916419.html