spark+scala+spring整合提升搬砖效率

0.背景 为何会想到把这三个整合在一块儿? 固然是工做中遇到不舒服的地方。java 最近数据的需求特别多,有时候本身定位问题也常常要跑数据,一般就是spark+scala的常规画风。虽然是提同一个jar包,但执行的每一个包的路径都不同,这就致使我要不断的去改脚本,很不舒服。提交spark job的画风一般是这样子的:git spark-submit --cluster hadoop-spark2.
相关文章
相关标签/搜索