寻找hadoop、hive、spark对应版本

      一开始装了hadoop3.2.1+hive3.1.2+spark3.0.0,整个安装虽然有一些些jar包版本冲突问题但都解决了,直到写spark-sql的时候执行,sparkSession.sql("……")的时候报了一个类找不到问题,一眼看过去就觉得应该又是包冲突了,然后,从pom.xml引入的包版本冲突开始解决,最后演变成,解决A问题,发现了B问题,又遇到D问题……一种坑越挖越大的
相关文章
相关标签/搜索