# 服务器的broker id。如果未设置,将生成一个独一无二的broker id。 # 要避免zookeeper生成的broker id和用户配置的broker id冲突,从reserved.broker.max.id + 1开始生成。 broker.id=0 # 启用删除topic。如果此配置已关闭,通过管理工具删除topic将没有任何效果 delete.topic.enable=true # 当前kafka对外提供服务的端口默认是9092 port=9088 # 这个参数默认是关闭的,在0.8.1有个bug,DNS解析问题,失败率的问题。高版本不用设置 # host.name=192.168.7.100 # 监听列表 - 监听逗号分隔的URL列表和协议。指定hostname为0.0.0.0绑定到所有接口,将hostname留空则绑定到默认接口。合法的listener列表是:PLAINTEXT://myhost:9092,TRACE://:9091 PLAINTEXT://0.0.0.0:9092, TRACE://localhost:9093 # 备注:listeners一定要配置成为IP地址;如果配置为localhost或服务器的hostname,在使用java发送数据时就会抛出异 常:org.apache.kafka.common.errors.TimeoutException: Batch Expired 。 # 因为在没有配置advertised.host.name 的情况下,Kafka并没有像官方文档宣称的那样改为广播我们配置的host.name,而是广播了主机配置的hostname。远端的客户端并没有配置 hosts,所以自然是连接不上这个hostname的 listeners=PLAINTEXT://192.168.100.111:9088 # 这个是borker进行网络处理的线程数 num.network.threads=4 # 这个是borker进行I/O处理的线程数 num.io.threads=12 # 保存日志数据的目录。如果未设置,则使用log.dir中的值 # 消息存放的目录,这个目录可以配置为“,”逗号分割的表达式,上面的num.io.threads要大于这个目录的个数这个目录,如果配置多个目录,新创建的topic他把消息持久化的地方是,当前以逗号分割的目录中,那个分区数最少就放那一个 log.dirs=/yl_test/kafka_2.11-0.10.1.1/logs # 发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能 socket.send.buffer.bytes=102400 # kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘 socket.receive.buffer.bytes=102400 # 这个参数是向kafka请求消息或者向kafka发送消息的请请求的最大数,这个值不能超过java的堆栈大小 socket.request.max.bytes=104857600 # 默认的分区数,一个topic默认1个分区数 num.partitions=2 # 默认消息的最大持久化时间,168小时,7天 log.retention.hours=168 # 消息保存的最大值10M message.max.byte=10485760 # 自动创建topic的默认的副本数, kafka保存消息的副本数,如果一个副本失效了,另一个还可以继续提供服务 default.replication.factor=2 # 拉取每个分区的消息的字节数。这不是绝对的最大值,如果提取的第一个非空分区中的第一个消息大于这个值,则消息仍然返回,以确保进展。 # 通过message.max.bytes (broker配置)或max.message.bytes (topic配置)定义broker接收的最大消息大小。 replica.fetch.max.bytes=10485760 # 这个参数是:因为kafka的消息是以追加的形式落地到文件,当超过这个值的时候,kafka会新起一个文件 log.segment.bytes=1073741824 # 日志清除程序检查日志是否满足被删除的频率(以毫秒为单位, 每隔300000毫秒去检查上面配置的log失效时间(log.retention.hours=168 ),到目录查看是否有过期的消息如果有,删除 log.retention.check.interval.ms=300000 # 是否启用log压缩,一般不用启用,启用的话可以提高性能 # 在服务器上启用日志清洗处理?如果使用的任何topic的cleanup.policy=compact包含内部的offset topic,应启动。如果禁用,那些topic将不会被压缩并且会不断的增大。 log.cleaner.enable=true # 设置zookeeper的连接端口 zookeeper.connect=192.168.100.7:2188,192.168.100.100:2188,192.168.100.111:2188