如何用Jupyter Notebook打开Spark

  电脑已经装了anaconda python,而后下载了spark2.1.0。由于版本太新,因此网上和书上的一些内容已经再也不适用。好比关于如何使用IPython和Jupyter,教程给出的方法是用以下语句打开Spark便可进入IPython或者IPython Notebook:python

IPYTHON=1 ./bin/pyspark
IPYTHON_OPTS="notebook" ./bin/pyspark

  然鹅运行以上语句后我获得的是:bash

Error in pyspark startup:
IPYTHON and IPYTHON_OPTS are removed in Spark 2.0+. Remove these from the environment and set PYSPARK_DRIVER_PYTHON and PYSPARK_DRIVER_PYTHON_OPTS instead.

  因此使用Jupyter打开Spark的设置方法是:spa

1 export PYSPARK_DRIVER_PYTHON=jupyter
2 export PYSPARK_DRIVER_PYTHON_OPTS='notebook' pyspark

  这样再打开Spark时就会自动使用Jupyter Notebook来打开Spark了。code

相关文章
相关标签/搜索