Spark jar包加载顺序及冲突解决

一,spark jar包加载顺序

1,SystemClasspath – Spark安装时候提供的依赖包,通常是spark home目录下的jars文件夹 【SystemClassPath】2,Spark-submit --jars 提交的依赖包 【UserClassPath】3,Spark-submit app.jar或者shadowJar打的jar 【UserClassPath】

二,jar包冲突解决

spark-submit时出现如下错误:

这个代码在本地跑是不报错的,放到服务器上就报错了。猜测是jar包冲突。冲突的类是com/google/common/base/CaseFormat

使用如下命令在spark jars目录下查找包含这个类的jar包:

find /usr/local/service/spark/jars/ -name "*.jar" -exec grep -Hls "com/google/common/base/CaseFormat" {} \;

结果:

发现在spark安装目录下有guava-14包,而我pom依赖的是更高版本的包:

解决方案

最简单最粗暴的方式是替换jar包,但这样是不合理的,因为spark本身依赖的低版本,直接替换为高版本会导致spark本身报错。

下面两种方法可以解决:

① spark.{driver/executor}.userClassPathFirst 指定优先加载user jar包

② 明确指定要使用的jar包版本

--conf "spark.driver.extraClassPath=snappy-java-version.jar" \

--conf "spark.executor.extraClassPath=snappy-java-version.jar" \

demo :

/usr/local/service/spark/bin/spark-submit --master yarn --jars ./jars/guava-29.0-jre.jar --conf "spark.executor.extraClassPath=guava-29.0-jre.jar" --class com.asinking.app.inventorycenter.cost.LtReportApp /home/hadoop/costcenter/fich-1.0.jar

完美解决。