在jupyter notebook上引用pyspark

最近都是直接使用pyspark shell或者用pycharm来写spark的代码,可是在处理数据或者看训练结果的时候仍是jupyter notebook方便太多太多,可是在jupyter中没办法引入pyspark,致使不太方便,这里记录一下在jupyter notebook引入pyspark的方法。 环境:anaconda(推荐全部人都装,很是的方便)python3.6,spark2.0,操做系
相关文章
相关标签/搜索