文档章节

kafka学习(四)---- Kafka整合SpringMVC实例(二)

火龙战士
 火龙战士
发布于 2016/08/23 16:53
字数 817
阅读 4443
收藏 6

kafka学习(四)---- Kafka整合SpringMVC实例(二)

1、概述

目前没有很好的整合Kafka的案例,自己参考着使用spring-integration-kafka框架写了一个: Kafka整合SpringMVC实例,但同时也发现官方文档也不全,所以又用spring简单的实现了一下,感觉这个比使用spring-integration-kafka框架更简单一点,但是需要对kafka作深入的了解,废话不多说直接切入正题。

2、实例

1. 安装Zookeeper

Zookeeper下载基本使用

2. 安装Kafka

kafka基本概念以及环境搭建

3. 创建spring项目(建议使用maven方式创建)

项目截图(小红叉不影响项目的启动)

pom.xml配置

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd">
  <modelVersion>4.0.0</modelVersion>
  <groupId>com.kafka.demo</groupId>
  <artifactId>SpringWithKafka</artifactId>
  <packaging>war</packaging>
  <version>0.0.1-SNAPSHOT</version>
  <name>SpringWithKafka Maven Webapp</name>
  <url>http://maven.apache.org</url>
  
  <properties>
		<spring.version>4.2.5.RELEASE</spring.version>
	</properties>
  
  <dependencies>
    <dependency>
			<groupId>junit</groupId>
			<artifactId>junit</artifactId>
			<version>4.11</version>
			<scope>test</scope>
		</dependency>
		<dependency>
			<groupId>javax.servlet</groupId>
			<artifactId>javax.servlet-api</artifactId>
			<version>3.1.0</version>
			<scope>provided</scope>
		</dependency>
		<!-- spring -->
		<dependency>
			<groupId>org.springframework</groupId>
			<artifactId>spring-core</artifactId>
			<version>${spring.version}</version>
		</dependency>
		<dependency>
			<groupId>org.springframework</groupId>
			<artifactId>spring-web</artifactId>
			<version>${spring.version}</version>
		</dependency>
		<dependency>
			<groupId>org.springframework</groupId>
			<artifactId>spring-webmvc</artifactId>
			<version>${spring.version}</version>
		</dependency>
		<!-- spring-kafka -->
		<dependency>
		    <groupId>org.springframework.kafka</groupId>
		    <artifactId>spring-kafka</artifactId>
		    <version>1.0.3.RELEASE</version>
		</dependency>
		<!-- 日志 -->
		<dependency>
			<groupId>commons-logging</groupId>
			<artifactId>commons-logging</artifactId>
			<version>1.1.1</version>
		</dependency>
		<dependency>
			<groupId>org.slf4j</groupId>
			<artifactId>slf4j-log4j12</artifactId>
			<version>1.7.5</version>
		</dependency>
		<dependency>
			<groupId>javax</groupId>
			<artifactId>javaee-api</artifactId>
			<version>7.0</version>
		</dependency>
		<dependency>
			<groupId>com.fasterxml.jackson.core</groupId>
			<artifactId>jackson-core</artifactId>
			<version>2.7.6</version>
		</dependency>
		<dependency>
			<groupId>com.fasterxml.jackson.core</groupId>
			<artifactId>jackson-databind</artifactId>
			<version>2.7.6</version>
		</dependency>
		<dependency>
			<groupId>com.fasterxml.jackson.core</groupId>
			<artifactId>jackson-annotations</artifactId>
			<version>2.7.6</version>
		</dependency>
  </dependencies>
  <build>
    <finalName>SpringWithKafka</finalName>
  </build>
</project>

kafka-producer.xml配置

<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"  
     xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  
     xmlns:context="http://www.springframework.org/schema/context"  
     xsi:schemaLocation="http://www.springframework.org/schema/beans  
         http://www.springframework.org/schema/beans/spring-beans.xsd  
         http://www.springframework.org/schema/context  
         http://www.springframework.org/schema/context/spring-context.xsd">  
      
     <context:property-placeholder location="classpath:init.properties" />  
      
     <!-- 定义producer的参数 -->  
     <bean id="producerProperties" class="java.util.HashMap">  
        <constructor-arg>  
            <map>  
                <entry key="bootstrap.servers" value="${bootstrap.servers}"/>  
                <entry key="group.id" value="0"/>  
                <entry key="retries" value="10"/>  
                <entry key="batch.size" value="16384"/>  
                <entry key="linger.ms" value="1"/>  
                <entry key="buffer.memory" value="33554432"/>  
                <entry key="key.serializer" value="org.apache.kafka.common.serialization.IntegerSerializer"/>  
                <entry key="value.serializer" value="org.apache.kafka.common.serialization.StringSerializer"/>  
            </map>  
        </constructor-arg>  
     </bean>  
       
     <!-- 创建kafkatemplate需要使用的producerfactory bean -->  
     <bean id="producerFactory" class="org.springframework.kafka.core.DefaultKafkaProducerFactory">  
        <constructor-arg>  
            <ref bean="producerProperties"/>  
        </constructor-arg>  
     </bean>  
       
     <!-- 创建kafkatemplate,使用的时候,只需要注入这个bean,即可使用template的send消息方法 -->  
     <bean id="KafkaTemplate" class="org.springframework.kafka.core.KafkaTemplate">  
        <constructor-arg ref="producerFactory"/>  
        <constructor-arg name="autoFlush" value="true"/>  
        <property name="defaultTopic" value="myTopic"/>  
     </bean>  
  
</beans> 

kafka-consumer.xml配置

<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"  
     xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  
     xmlns:context="http://www.springframework.org/schema/context"  
     xsi:schemaLocation="http://www.springframework.org/schema/beans  
         http://www.springframework.org/schema/beans/spring-beans.xsd  
         http://www.springframework.org/schema/context  
         http://www.springframework.org/schema/context/spring-context.xsd">  
      
     <context:property-placeholder location="classpath:init.properties" />  
  
    <!-- 定义consumer的参数 -->  
     <bean id="consumerProperties" class="java.util.HashMap">  
        <constructor-arg>  
            <map>  
                <entry key="bootstrap.servers" value="${bootstrap.servers}"/>  
                <entry key="group.id" value="0"/>  
                <entry key="enable.auto.commit" value="true"/>  
                <entry key="auto.commit.interval.ms" value="1000"/>  
                <entry key="session.timeout.ms" value="15000"/>  
                <entry key="key.deserializer" value="org.apache.kafka.common.serialization.IntegerDeserializer"/>  
                <entry key="value.deserializer" value="org.apache.kafka.common.serialization.StringDeserializer"/>  
            </map>  
        </constructor-arg>  
     </bean>  
       
     <!-- 创建consumerFactory bean -->  
     <bean id="consumerFactory" class="org.springframework.kafka.core.DefaultKafkaConsumerFactory">  
        <constructor-arg>  
            <ref bean="consumerProperties"/>  
        </constructor-arg>  
     </bean>  
       
     <!-- 实际执行消息消费的类 -->  
     <bean id="messageListernerConsumerService" class="com.kafka.demo.service.KafkaConsumerService"/>  
       
     <!-- 消费者容器配置信息 -->  
     <bean id="containerProperties" class="org.springframework.kafka.listener.config.ContainerProperties">  
        <constructor-arg value="myTopic"/>  
        <property name="messageListener" ref="messageListernerConsumerService"/>  
     </bean>  
       
     <!-- 注册消费者容器到监听器 -->  
     <bean id="messageListenerContainer" class="org.springframework.kafka.listener.KafkaMessageListenerContainer" init-method="doStart">  
        <constructor-arg ref="consumerFactory"/>  
        <constructor-arg ref="containerProperties"/>  
     </bean>  
  
</beans>  

其他代码请参看实例源码:源码下载

github下载地址

3、实例演示

a、运行项目访问http://localhost:8080/SpringWithKafka/kafka/test //测试地址 效果如图:

b、查看kafka控制台信息输出,如下图:

© 著作权归作者所有

火龙战士

火龙战士

粉丝 122
博文 138
码字总数 101234
作品 0
北京
后端工程师
私信 提问
加载中

评论(13)

火龙战士
火龙战士 博主

引用来自“facetan”的评论

你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)

引用来自“火龙战士”的评论

首先十分感谢你提出的这两个问题,先说第一个问题:我这里没有使用zk所以没有配置zk的IP和端口。第二问题:关于kafka集群的问题,这个我还没有时间测试。如果我用kafka集群的话,我会用Nginx做一层代理,然后在bootstrap.servers配置Nginx这个地址。有关集群的这个你可以写demo测试下,直接配置两个IP和端口的这个问题我可能需要测试以后才能给你回复了。

引用来自“facetan”的评论

感谢博主的回答,关于直接配置两个ip和端口启动时会报错。

引用来自“火龙战士”的评论

你好,经自己测试发现配置两个ip和端口没有问题,你出现的错误是什么,可以看私信有我的联系方式,方便交流。

引用来自“facetan”的评论

其实我采用您关于spring-integration-kafka 集成的配置,可以正常接收消息。
恩恩,毕竟自己写的和spring-integration-kafka这个还是不能比的,共同进步。
facetan
facetan

引用来自“facetan”的评论

你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)

引用来自“火龙战士”的评论

首先十分感谢你提出的这两个问题,先说第一个问题:我这里没有使用zk所以没有配置zk的IP和端口。第二问题:关于kafka集群的问题,这个我还没有时间测试。如果我用kafka集群的话,我会用Nginx做一层代理,然后在bootstrap.servers配置Nginx这个地址。有关集群的这个你可以写demo测试下,直接配置两个IP和端口的这个问题我可能需要测试以后才能给你回复了。

引用来自“facetan”的评论

感谢博主的回答,关于直接配置两个ip和端口启动时会报错。

引用来自“火龙战士”的评论

你好,经自己测试发现配置两个ip和端口没有问题,你出现的错误是什么,可以看私信有我的联系方式,方便交流。
其实我采用您关于spring-integration-kafka 集成的配置,可以正常接收消息。
facetan
facetan

引用来自“facetan”的评论

你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)

引用来自“火龙战士”的评论

首先十分感谢你提出的这两个问题,先说第一个问题:我这里没有使用zk所以没有配置zk的IP和端口。第二问题:关于kafka集群的问题,这个我还没有时间测试。如果我用kafka集群的话,我会用Nginx做一层代理,然后在bootstrap.servers配置Nginx这个地址。有关集群的这个你可以写demo测试下,直接配置两个IP和端口的这个问题我可能需要测试以后才能给你回复了。

引用来自“facetan”的评论

感谢博主的回答,关于直接配置两个ip和端口启动时会报错。

引用来自“火龙战士”的评论

你好,经自己测试发现配置两个ip和端口没有问题,你出现的错误是什么,可以看私信有我的联系方式,方便交流。
首先感谢博主的回复,另外还是在这里给您回复吧,这样也可以给其他人一个参考。
目前我的场景是我的程序定义一个consumer,producer是第三方发送的数据。所以我只需要配置consumer那个spring配置文件,第三方是通过zookeeper集群上的kafka发送的消息。您的这个场景应该是使用kafka默认的配置,所以我这边只配置brokerlist的时候产生的问题。
火龙战士
火龙战士 博主

引用来自“facetan”的评论

你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)

引用来自“火龙战士”的评论

首先十分感谢你提出的这两个问题,先说第一个问题:我这里没有使用zk所以没有配置zk的IP和端口。第二问题:关于kafka集群的问题,这个我还没有时间测试。如果我用kafka集群的话,我会用Nginx做一层代理,然后在bootstrap.servers配置Nginx这个地址。有关集群的这个你可以写demo测试下,直接配置两个IP和端口的这个问题我可能需要测试以后才能给你回复了。

引用来自“facetan”的评论

感谢博主的回答,关于直接配置两个ip和端口启动时会报错。
你好,经自己测试发现配置两个ip和端口没有问题,你出现的错误是什么,可以看私信有我的联系方式,方便交流。
火龙战士
火龙战士 博主

引用来自“facetan”的评论

你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)

引用来自“火龙战士”的评论

首先十分感谢你提出的这两个问题,先说第一个问题:我这里没有使用zk所以没有配置zk的IP和端口。第二问题:关于kafka集群的问题,这个我还没有时间测试。如果我用kafka集群的话,我会用Nginx做一层代理,然后在bootstrap.servers配置Nginx这个地址。有关集群的这个你可以写demo测试下,直接配置两个IP和端口的这个问题我可能需要测试以后才能给你回复了。

引用来自“facetan”的评论

感谢博主的回答,关于直接配置两个ip和端口启动时会报错。
昨天仔细看了原来的东西,zk使用的kafka本身默认的配置,配置文件在kafka下config目中查看zookeeper.properties。昨天我关于zk哪里的说法不全面,这里做一个补充,希望没有对你造成影响。
火龙战士
火龙战士 博主

引用来自“facetan”的评论

你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)

引用来自“火龙战士”的评论

首先十分感谢你提出的这两个问题,先说第一个问题:我这里没有使用zk所以没有配置zk的IP和端口。第二问题:关于kafka集群的问题,这个我还没有时间测试。如果我用kafka集群的话,我会用Nginx做一层代理,然后在bootstrap.servers配置Nginx这个地址。有关集群的这个你可以写demo测试下,直接配置两个IP和端口的这个问题我可能需要测试以后才能给你回复了。

引用来自“facetan”的评论

感谢博主的回答,关于直接配置两个ip和端口启动时会报错。
十分感谢你的测试,发现这个问题,我会努力去解决这个问题,你也可以尝试去修复这个问题,一起探讨进步。
facetan
facetan

引用来自“facetan”的评论

你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)

引用来自“火龙战士”的评论

首先十分感谢你提出的这两个问题,先说第一个问题:我这里没有使用zk所以没有配置zk的IP和端口。第二问题:关于kafka集群的问题,这个我还没有时间测试。如果我用kafka集群的话,我会用Nginx做一层代理,然后在bootstrap.servers配置Nginx这个地址。有关集群的这个你可以写demo测试下,直接配置两个IP和端口的这个问题我可能需要测试以后才能给你回复了。
感谢博主的回答,关于直接配置两个ip和端口启动时会报错。
火龙战士
火龙战士 博主

引用来自“facetan”的评论

你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)
博客中写的zk本来打算是用dubbo管理服务的,最后因为时间原因没有完成这一块的儿的功能,如果你有需要可以参考我写的另外一篇博客。十分感谢。
火龙战士
火龙战士 博主

引用来自“facetan”的评论

你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)
首先十分感谢你提出的这两个问题,先说第一个问题:我这里没有使用zk所以没有配置zk的IP和端口。第二问题:关于kafka集群的问题,这个我还没有时间测试。如果我用kafka集群的话,我会用Nginx做一层代理,然后在bootstrap.servers配置Nginx这个地址。有关集群的这个你可以写demo测试下,直接配置两个IP和端口的这个问题我可能需要测试以后才能给你回复了。
facetan
facetan
你好,看了下消费者和生产者的spring配置文件有两个疑问:
1.消费者和生产者spring文件中的参数配置项bootstrap.servers都是配置的kafka的ip和端口,好像没有涉及配置zookeeper的ip和端口。
2.例子中只是bootstrap.servers只是配置了单机环境的kafka的ip和端口,kafka集群是否支持。比如(ip1:9092,ip2:9092)
kafka学习(三)----- Kafka整合SpringMVC实例

kafka一个高吞吐量的分布式发布订阅消息系统。有关知识请参看:kafka基本概念以及环境搭建,kafka整合springMVC需要用到一个开源框架:spring-integration-kafka,这个官方框架我就不介绍了,...

火龙战士
2016/08/22
2.8K
0
手把手教学系列——疯狂Spring Cloud教学视频

大家好,我是《疯狂Spring Cloud微服务架构实战》一书的作者杨恩雄,该书的配套教学视频已经录制完成,目的是为了让更多的朋友能轻松地学习Spring Cloud。本书与配套视频,适合Spring Cloud的...

杨大仙的程序空间
2017/10/18
6.6K
27
【Kafka】阿里云消息队列kafka 结合 spring cloud stream

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/kisscatforever/article/details/86231039 一、前言 在以前的博客中,小编使用过spring cloud stream 结合rab...

AresCarry
01/17
0
0
搞懂分布式技术23:SpringBoot Kafka 整合使用

Spring Boot系列文章(一):SpringBoot Kafka 整合使用2018-01-05 ×文章目录 1. 前提 2. 创建项目 3. Kafka 设置 4. 运行 5. 关注我 6. 最后 前提 假设你了解过 SpringBoot 和 Kafka。 1、...

你的猫大哥
2018/07/05
0
0
【SpringBoot整合】1.整合kafka

简介 kafka简介。 再次之前,先安装kafka服务。 参考文档: spring for kafka文档 spring boot for kafka文档 1、依赖包 2、配置组件 注意一些配置可以移除到配置文件中。 2.1、配置生产者组...

Areya
03/14
115
0

没有更多内容

加载失败,请刷新页面

加载更多

3_数组

3_数组

行者终成事
今天
7
0
经典系统设计面试题解析:如何设计TinyURL(二)

原文链接:https://www.educative.io/courses/grokking-the-system-design-interview/m2ygV4E81AR 编者注:本文以一道经典的系统设计面试题:《如何设计TinyURL》的参考答案和解析为例,帮助...

APEMESH
今天
7
0
使用logstash同步MySQL数据到ES

概述   在生成业务常有将MySQL数据同步到ES的需求,如果需要很高的定制化,往往需要开发同步程序用于处理数据。但没有特殊业务需求,官方提供的logstash就很有优势了。   在使用logstas...

zxiaofan666
今天
10
0
X-MSG-IM-分布式信令跟踪能力

经过一周多的鏖战, X-MSG-IM的分布式信令跟踪能力已基本具备, 特点是: 实时. 只有要RX/TX就会实时产生信令跟踪事件, 先入kafka, 再入influxdb待查. 同时提供实时sub/pub接口. 完备. 可以完整...

dev5
今天
7
0
OpenJDK之CyclicBarrier

OpenJDK8,本人看的是openJDK。以前就看过,只是经常忘记,所以记录下 图1 CyclicBarrier是Doug Lea在JDK1.5中引入的,作用就不详细描述了,主要有如下俩个方法使用: await()方法,如果当前线...

克虏伯
今天
8
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部