spark数据分析之ip归属地查询

前一段时间,在项目中,领导要求实时查看来自各个省份的ip访问的详情,根据这一需求,经过flume/logstack实时采集nginx的日志到生产到kafka,再经过Spark实时消费分析保存到Redis/MySQL中,最后前端经过百度的echart图实时的显示出来。  首先,得有一份ip归属地的规则表,能够本地的文档,也能够是分布式的在多台机器上的(如hdfs)。  ip规则表部分以下:前端 1.
相关文章
相关标签/搜索