解决升级Spark2.0以后,DataFrame map操做报错

当咱们在使用spark1.6的时候,当咱们建立SQLContext读取一个文件以后,返回DataFrame类型的变量能够直接.map操做,不会报错。可是升级以后会包一个错误,以下:ide   报错:No implicits found for parameter evidence$6: Encoder[Unit]spa        主要的错误缘由为: 3d   ******error: Unab
相关文章
相关标签/搜索