spark通过获取kafka访问网站数据计算uv,并存到redis中

使用sparkstreaming计算uv并存入redis集群 首先数据是通过flume存入kafka的待分析数据(\t隔开): 需求就是记录不同ip访问次数,相同的ip不累加,简单来说就是记录不同用户的访问量uv kafka和redis集群的配置 application.conf util类 ConfUtil RedisPoolUtil scala代码 计算总uv 这里的重点是我计算uv使用的是H
相关文章
相关标签/搜索