[Spark应用依赖jar包的添加解决方案]

Spark应用依赖jar包添加无效的解决方案java       在Spark应用中,咱们发现,在${SPARK_HOME}\lib文件夹中添加jar包时并不起做用。那么,要如何使得咱们编写的Sparky应用依赖的jar有效呢?有以下四种方案:mysql    1.使用参数--jars 添加本地的第三方jar文件(运行spark-submit脚本的机器上),能够给定多个jar文件,中间用逗号隔开
相关文章
相关标签/搜索