文档章节

Flume ng1.6 + kafka 2.11 整合

whitelover
 whitelover
发布于 2015/12/25 16:19
字数 272
阅读 67
收藏 0
  1. 第一步

    安装Apache Flume 1.6;

  2. 第二步

    安装kafka;

    启动kafka步骤:

    <1>启动zookeeper服务

    bin/zookeeper-server-start.sh config/zookeeper.properties &

    <2>启动kafka

    bin/kafka-server-start.sh config/server.properties

    <3>启动consumer(--from-beginning:此参数可以不要,表示启动之前接收到的消息也要消费 )

    bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

  3. 第三步

         配置flume 配置文件kafka-test.conf :

            #Name the components on this agent

            a1.sources = r1

            a1.sinks = k1

            a1.channels = c1

            #Describe/configure the source

            a1.sources.r1.type=netcat

            a1.sources.r1.bind=localhost

            a1.sources.r1.port=3333

            #Describe the sink ( kafka sink 配置)

            a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink

            a1.sinks.k1.topic = test

            a1.sinks.k1.brokerList =172.19.16.213:9092

            a1.sinks.k1.requiredAcks = 0

            a1.sinks.k1.batchSize = 20

            #kafka.producer.type=sync

            #kafka.partitioner.class=org.apache.flume.plugins.SinglePartition

            #Use a channel which buffers events in memory

            a1.channels.c1.type=memory

            a1.channels.c1.capacity=1000

            a1.channels.c1.transactionCapacity=100

            #Bind the source and sink to the channel

            a1.sources.r1.channels=c1

            a1.sinks.k1.channel=c1

    4.第四步 启动flume

    bin/flume-ng agent -c conf -f conf/kafka-test.conf --name a1 -Dflume.root.logger=INFO,console

 或

    bin/flume-ng agent -c conf -f conf/kafka-test.conf --name a1 &

    5.第五步测试

    

    6.验证是否发送成功

    在启动consumer控制台查看接收到的消息。


© 著作权归作者所有

共有 人打赏支持
whitelover
粉丝 12
博文 26
码字总数 10236
作品 0
【Strom篇】Flume+Kafaka+Strom整合完成信息记录

第一部分:流程分析 由flume收集客户端发送的信息,经过kafka集群消费者收集,然后给storm集群数据处理(数据清洗),最后再发给kafka集群收集。 第二部分:集群搭建 flume+kafka 一、配合f...

chenshi_2753
05/06
0
0
Flume - Kafka日志平台整合

1. Flume介绍 Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行...

mantoudev
03/21
0
0
Flume+Kafka+Storm+Redis构建大数据实时处理系统

一、大数据处理的常用方法 之前在《采集→清洗→处理:基于MapReduce的离线数据分析》中已经有提及到,这里依然给出下面的图示: 前面给出的那篇文章是基于MapReduce的离线数据分析案例,其通...

技术小能手
07/09
0
0
Flume+Kafka+Storm+Redis构建大数据实时处理系统:实时统计网站PV、UV+展示

[TOC] 1 大数据处理的常用方法 前面在我的另一篇文章中《大数据采集、清洗、处理:使用MapReduce进行离线数据分析完整案例》中已经有提及到,这里依然给出下面的图示: 前面给出的那篇文章是...

xpleaf
04/16
0
0
kafka来读取flume的数据

一、查看kafka topic ./kafka-topics.sh --list --zookeeper bigdata-test-3:2181, bigdata-test-2:2181, bigdata-test-1:2181, bigdata-test-4:2181, bigdata-test-5:2181 ./kafka-topics.s......

weixin_41876523
05/24
0
0

没有更多内容

加载失败,请刷新页面

加载更多

下一页

bat强制启用宏

运行bat文件后,将宏的安全等级设为低,达到启用宏的目的。 REM 这个文件将提供用户快速设置Excel宏的安全等级@ECHO OFFCLS:cmd4REG ADD "HKEY_CURRENT_USER\Software\Mi...

tedzheng
6分钟前
0
0
流,用声明性的方式处理数据集 - 读《Java 8实战》

引入流 Stream API的代码 声明性 更简洁,更易读 可复合 更灵活 可并行 性能更好 流是什么? 它允许以声明方式处理数据集合 遍历数据集的高级迭代器 透明地并行处理 简短定义:从支持数据处理...

yysue
8分钟前
1
0
postman发送json格式的post请求

postman发送json格式的post请求 在地址栏里输入请求url:http://127.0.0.1:8081/getmoney 选择“POST”方式, 在“headers”添加key:Content-Type , value:application/json 点击"body",''ra...

两广总督bogang
15分钟前
0
0
Javascript将html转成pdf,下载(html2canvas 和 jsPDF)

最近碰到个需求,需要把当前页面生成pdf,并下载。弄了几天,自己整理整理,记录下来,我觉得应该会有人需要 :) 项目源码地址:https://github.com/linwalker/render-html-to-pdf html2ca...

孟飞阳
15分钟前
0
0
pureftp源码编译及设定

--- use for RHEL 567 and Ubuntu 1604 1. download pureftpd wget http://download.pureftpd.org/pub/pure-ftpd/releases/pure-ftpd-1.0.47.tar.bz2 2. install gcc #apt-get install -y li......

zzimac
17分钟前
0
0

没有更多内容

加载失败,请刷新页面

加载更多

下一页

返回顶部
顶部