spark执行的时候报Unable to load native-hadoop library for your platform警告

缘由:bash spark预先编译的hadoop版本为32位的,放在64位的机器上执行会报这个错误,解决办法oop 办法一:spa 在spark的conf目录下,在spark-env.sh文件中加入LD_LIBRARY_PATH环境变量LD_LIBRARY_PATH=$HADOOP_HOME/lib/nativehadoop 办法2、spark 在 ~/.bashrc 设置一下 export LD
相关文章
相关标签/搜索