Spark应用依赖jar包的添加解决方案

在Spark应用中,咱们发现,在${SPARK_HOME}\lib文件夹中添加jar包时并不起做用。那么,要如何使得咱们编写的Sparky应用依赖的jar有效呢?有以下四种方案:java 1.使用参数–jarsmysql 添加本地的第三方jar文件(运行spark-submit脚本的机器上),能够给定多个jar文件,中间用逗号隔开linux bin/spark-sql --jars /opt/mo
相关文章
相关标签/搜索