Spark实战(一):spark读取本地文件输出到Elasticsearch

对于spark的典型应用场景为批处理,通常由基本数据源(文件系统如:hdfs)或者高级数据源(flume、kafka)做为spark的数据接入端。输出同样能够是文件系统或数据库等等。本文介绍一个用java写的demo程序,功能是从本地接收数据,通过spark处理以后输出到Elasticsearch。java 先上代码: mavennode <dependency> <groupId>org.ap
相关文章
相关标签/搜索