spark jdbc(mysql) 读取并发度优化

不少人在spark中使用默认提供的jdbc方法时,在数据库数据较大时常常发现任务 hang 住,实际上是单线程任务太重致使,这时候须要提升读取的并发度。 下文以 mysql 为例进行说明。java 在spark中使用jdbc 在 spark-env.sh 文件中加入:mysql export SPARK_CLASSPATH=/path/mysql-connector-java-5.1.34.jar
相关文章
相关标签/搜索