PySpark算子处理空间数据全解析(7): 构造空间数据的RDD(1)

Spark默认读取的是文本类型的文件,但是作为GISer,我们打交道的基本上都不是文本文件,无论是通用的Shapefile还是地理数据库,或者是栅格文件,都是以二进制为主的文件,那么在Spark里面怎么用呢?   上一篇说过,可以通过对象序列化的方式来实现,比如先读成序列化对象,然后转换成RDD,比如下面这篇地类图斑: 存储为Shapefile,如何变成RDD呢,通过对象序列化的方式来实现,代码如
相关文章
相关标签/搜索