Spark Streaming 对接Kafka实现实时统计的问题定位和解决

整个思路:spark streaming 接受Kafka数据(KafkaUtils.createDirectStream) 然后累计值(updateStateByKey) 把值发给Kafka。 整个过程出现两个问题,第一个问题是启动脚本的问题,第二个问题是添加性能参数的问题,第三个问题是认证过期问题。 问题一:Exception in thread "dag-scheduler-event-loo
相关文章
相关标签/搜索