SpringBoot集成Kafka2.4.0的全过程
作者:云暮冬
本文介绍了如何在Spring Boot 2.4.0环境中集成Kafka,从前提条件、Kafka启动(包括Windows和Linux)、pom.xml配置、消息生产者与消费者代码编写到实际运行并发送消息的全过程,感兴趣的朋友跟随小编一起看看吧
1、前提条件
前提是需要安装Kafka及能正常启动,正常启动后记录下Kafka的ip及端口号,例如我的:127.0.0.1:9092。
由于用的Kafka还是需要zookeeper的,因此之前也要安装启动好zookeeper,zookeeper的安装启动见这篇文章:
2、启动Kafka
2.1 windows启动
1、到Kafka安装目录下的bin目录下的windows下:
2、执行命令:kafka-server-start.bat -daemon D:\java\kafka_2.11-2.4.0\config\server.properties
2.2 linux启动
3、引入pom
这里由于我系统安装的是2.4.0版本的Kafka,因此pom引入最好用相同版本的,避免出现其他问题。还有一点要注意的是,如果最新的spring boot引入这个版本zookeeper可能有问题,因此需要注意。我用的是2.3.7.RELEASE版本的spring boot。
<dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>2.4.0</version> </dependency>
4、编写配置文件
这里一些相应的配置后续可以专门更新一篇文章,目前的目的是先跑起来体验一下。搭建起来。
spring: application: name: xuydkafka kafka: bootstrap-servers: 127.0.0.1:9092 #kafka地址 producer: # 生产者 retries: 3 # 设置大于0的值,则客户端会将发送失败的记录重新发送 batch-size: 16384 buffer-memory: 33554432 acks: 1 # 指定消息key和消息体的编解码方式 key-serializer: org.apache.kafka.common.serialization.StringSerializer value-serializer: org.apache.kafka.common.serialization.StringSerializer consumer: group-id: default-group enable-auto-commit: false auto-offset-reset: earliest # 从消息头开始poll()数据 key-deserializer: org.apache.kafka.common.serialization.StringDeserializer value-deserializer: org.apache.kafka.common.serialization.StringDeserializer max-poll-records: 500 # 一次poll最大的消息数量 listener: # 当每一条记录被消费者监听器(ListenerConsumer)处理之后提交 # RECORD # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后提交 # BATCH # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,距离上次提交的时间大于time时提交 # TIME # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,被处理的record数量大于等于count时提交 # COUNT # TIME | COUNT 有⼀个条件满⾜时提交 # COUNT_TIME # 当每⼀批poll()的数据被消费者监听器(ListenerConsumer)处理之后, ⼿动调#⽤Acknowledgment.acknowledge()后提交 # MANUAL # ⼿动调⽤Acknowledgment.acknowledge()后⽴即提交,⼀般使⽤这种 # MANUAL_IMMEDIATE ack-mode: MANUAL_IMMEDIATE redis: host: 127.0.0.1 server: port: 9000
5、编写消息生产者代码
package com.xuyd.kafka.controller; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.kafka.core.KafkaTemplate; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.RestController; @RestController @RequestMapping("/msg") public class KafkaController { private final static String TOPIC_NAME = "my-replicated-topic"; @Autowired private KafkaTemplate<String, String> kafkaTemplate; @RequestMapping("/send") public String sendMessage(){ kafkaTemplate.send(TOPIC_NAME, 0, "key", "this is a message"); return "send success"; } }
6、编写消息消费者相关代码
需要注意的是,一般生产者和消费者不会在同一个项目。这里只是体验,所以临时这么处理。
package com.xuyd.kafka.consumer; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.springframework.kafka.annotation.KafkaListener; import org.springframework.kafka.support.Acknowledgment; import org.springframework.stereotype.Component; @Component public class MyConsumer { @KafkaListener(topics = "my-replicated-topic", groupId = "MyGroup1") public void listenGroup(ConsumerRecord<String, String> record, Acknowledgment ack) { String value = record.value(); System.out.println(value); System.out.println(record); // 由于配置的提交方式是MANUAL_IMMEDIATE 因此这里需要手动提交代码 ack.acknowledge(); } }
7、启动并发送消息
这里启动时候可能会遇到各种问题,99%是因为springcloud或者springboot与kafka的版本不匹配造成的,大家先临时委曲求全一下,用我的版本跑起来再去完善吧~~
消息生产者发生消息。
消费者收到消息打印:
到此这篇关于SpringBoot集成Kafka2.4.0的全过程的文章就介绍到这了,更多相关SpringBoot集成Kafka内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
您可能感兴趣的文章:
- SpringBoot集成Kafka并使用多个死信队列详解
- Java中Springboot集成Kafka实现消息发送和接收功能
- SpringBoot集成Kafka的实现示例
- 如何使用SpringBoot集成Kafka实现用户数据变更后发送消息
- SpringBoot如何集成Kafka低版本和高版本
- SpringBoot3集成Kafka的方法详解
- SpringBoot集成Kafka 配置工具类的详细代码
- Springboot集成Kafka进行批量消费及踩坑点
- SpringBoot集成kafka全面实战记录
- SpringBoot集成Kafka的步骤
- Springboot集成Kafka实现producer和consumer的示例代码