Kafka 使用ExecutorService 多线程消费

前言:

Apache Kafka 做为当下最经常使用消息中间件之一。给到个人需求是须要咱们处理大量的消息(若是单线程处理过多消息会出现性能瓶颈)。java

如何使用Java的ExecutorService框架来建立线程池处理大量消息?apache

1.建立一个能够从topic中poll()消息后传递到线程池以进行进一步处理。bootstrap

2.建立工做线程,以执行每条消息的进一步处理。session

1.topic消息传递到ThreadPoolExecutorService

/** kafka 消息处理*/
public class KafkaProcessor {
    private final KafkaConsumer<String, String> myConsumer;
    private ExecutorService executor;
    private static final Properties KAFKA_PROPERTIES = new Properties();
   
   //基础的kafka配置~
   static {
        KAFKA_PROPERTIES.put("bootstrap.servers", "localhost:9092");
        KAFKA_PROPERTIES.put("group.id", "test-consumer-group");
        KAFKA_PROPERTIES.put("enable.auto.commit", "true");
        KAFKA_PROPERTIES.put("auto.commit.interval.ms", "1000");
        KAFKA_PROPERTIES.put("session.timeout.ms", "30000");
        KAFKA_PROPERTIES.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        KAFKA_PROPERTIES.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
    }

    public KafkaProcessor() {
        this.myConsumer = new KafkaConsumer<>(KAFKA_PROPERTIES);//初始化配置
        this.myConsumer.subscribe(Arrays.asList("test")); //订阅topic=test
    }
    public void init(int numberOfThreads) {
      //建立一个线程池 
     /** * public ThreadPoolExecutor(int corePoolSize, int maximumPoolSize, long keepAliveTime, TimeUnit unit, BlockingQueue<Runnable> workQueue, ThreadFactory threadFactory, RejectedExecutionHandler handler) *corePoolSize : 核心线程数,一旦建立将不会再释放。若是建立的线程数尚未达到指定的核心线 程数量,将会继续建立新的核心线程,直到达到最大核心线程数后,核心线程数将不在增长;若是没有空闲的核心线程,同时又未达到最大线程数,则将继续建立非核心线程;若是核心线程数等于最大线程数,则当核心线程都处于激活状态时,任务将被挂起,等待空闲线程来执行。 *maximumPoolSize : 最大线程数,容许建立的最大线程数量。若是最大线程数等于核心线程数,则没法建立非核心线程;若是非核心线程处于空闲时,超过设置的空闲时间,则将被回收,释放占用的资源。 *keepAliveTime : 也就是当线程空闲时,所容许保存的最大时间,超过这个时间,线程将被释放销毁,但只针对于非核心线程。 *unit : 时间单位,TimeUnit.SECONDS等。 *workQueue : 任务队列,存储暂时没法执行的任务,等待空闲线程来执行任务。 *threadFactory : 线程工程,用于建立线程。 *handler : 当线程边界和队列容量已经达到最大时,用于处理阻塞时的程序 */

      executor = new ThreadPoolExecutor(numberOfThreads, numberOfThreads,0L,TimeUnit.MILLISECONDS,new ArrayBlockingQueue<Runnable>(1000), new ThreadPoolExecutor.CallerRunsPolicy());
      
    while (true) {
        ConsumerRecords<String, String> records = myConsumer.poll(100);//每隔时间段进行消息拉取
        for (final ConsumerRecord<String, String> record : records) {
        executor.submit(new KafkaRecordHandler(record)); 
        }
      }
}
    //别忘记线程池的关闭!
    public void shutdown() {
        if (myConsumer != null) {
        myConsumer.close();
        }
        if (executor != null) {
        executor.shutdown();
        }
        try {
          if (executor != null && !executor.awaitTermination(60, TimeUnit.MILLISECONDS)) {
          executor.shutdownNow();
          }
        }catch (InterruptedException e) {
        executor.shutdownNow();
        }
}
}复制代码

2.建立工做线程

// 建立消息线程进行处理
public class KafkaRecordHandler implements Runnable {

    private ConsumerRecord<String, String> record;

    public KafkaRecordHandler(ConsumerRecord<String, String> record) {
        this.record = record;
    }

    @Override
    public void run() { 
      //业务操做...
        System.out.println("value = "+record.value());
        System.out.println("Thread id = "+ Thread.currentThread().getId());
    }
}复制代码

3.Using ?

//消费测试
public class ConsumerTest {
    public static void main(String[] args) {
      KafkaProcessor processor = new KafkaProcessor();
      try {
          processor.init(5);//指定相应的线程数!
      }catch (Exception exp) {
          processor.shutdown();
      }
    }
}复制代码

4.总结

可能并不适合全部方案,按需定制方案。框架

相关文章
相关标签/搜索