文档章节

Spark Streaming整合kafka实战

hblt-j
 hblt-j
发布于 2018/11/15 16:19
字数 6316
阅读 310
收藏 0

kafka作为一个实时的分布式消息队列,实时的生产和消费消息,这里我们可以利用SparkStreaming实时计算框架实时地读取kafka中的数据然后进行计算。在spark1.3版本后,kafkaUtils里面提供了两个创建dstream的方法,一种为KafkaUtils.createDstream,另一种为KafkaUtils.createDirectStream。

1.KafkaUtils.createDstream方式
构造函数为KafkaUtils.createDstream(ssc,[zk], [consumer group id], [per-topic,partitions] ) 使用了receivers来接收数据,利用的是Kafka高层次的消费者api,对于所有的receivers接收到的数据将会保存在Spark executors中,然后通过Spark Streaming启动job来处理这些数据,默认会丢失,可启用WAL日志,它同步将接受到数据保存到分布式文件系统上比如HDFS。 所以数据在出错的情况下可以恢复出来 。

A、创建一个receiver来对kafka进行定时拉取数据,ssc的rdd分区和kafka的topic分区不是一个概念,故如果增加特定主消费的线程数仅仅是增加一个receiver中消费topic的线程数,并不增加spark的并行处理数据数量。
B、对于不同的group和topic可以使用多个receivers创建不同的DStream 
C、如果启用了WAL(spark.streaming.receiver.writeAheadLog.enable=true)

同时需要设置存储级别(默认StorageLevel.MEMORY_AND_DISK_SER_2),

即KafkaUtils.createStream(….,StorageLevel.MEMORY_AND_DISK_SER)

1.1KafkaUtils.createDstream实战
(1)添加kafka的pom依赖

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-streaming-kafka_0-10_2.11</artifactId>
    <version>2.0.2</version>
</dependency>

(2)启动zookeeper集群

zkServer.sh start

(3)启动kafka集群

kafka-server-start.sh  /export/servers/kafka/config/server.properties

(4)创建topic

kafka-topics.sh --create --zookeeper node-1:2181 --replication-factor 1 --partitions 3 --topic kafka_spark

(5)向topic中生产数据

通过shell命令向topic发送消息

kafka-console-producer.sh --broker-list node-1:9092--topic  kafka_spark

(6)编写SparkStreaming应用程序

KafkaUtils.createDstream方式(基于kafka高级Api-----偏移量由zk保存)

package cn.testdemo.dstream.kafka
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.kafka.KafkaUtils
import scala.collection.immutable

//todo:利用sparkStreaming对接kafka实现单词计数----采用receiver(高级API)
object SparkStreamingKafka_Receiver {
  def main(args: Array[String]): Unit = {
      //1、创建sparkConf
      val sparkConf: SparkConf = new SparkConf()
        .setAppName("SparkStreamingKafka_Receiver")
        .setMaster("local[2]")
        .set("spark.streaming.receiver.writeAheadLog.enable","true") //开启wal预写日志,保存数据源的可靠性
      //2、创建sparkContext
      val sc = new SparkContext(sparkConf)
      sc.setLogLevel("WARN")
      //3、创建StreamingContext
      val ssc = new StreamingContext(sc,Seconds(5))

    //设置checkpoint
      ssc.checkpoint("./Kafka_Receiver")
    //4、定义zk地址
    val zkQuorum="node-1:2181,node-2:2181,node-3:2181"
    //5、定义消费者组
    val groupId="spark_receiver"
    //6、定义topic相关信息 Map[String, Int]
    // 这里的value并不是topic分区数,它表示的topic中每一个分区被N个线程消费
    val topics=Map("kafka_spark" -> 2)

    //7、通过KafkaUtils.createStream对接kafka
    //这个时候相当于同时开启3个receiver接受数据
    val receiverDstream: immutable.IndexedSeq[ReceiverInputDStream[(String, String)]] = (1 to 3).map(x => {
      val stream: ReceiverInputDStream[(String, String)] = KafkaUtils.createStream(ssc, zkQuorum, groupId, topics)
      stream
      }
    )
    //使用ssc.union方法合并所有的receiver中的数据
      val unionDStream: DStream[(String, String)] = ssc.union(receiverDstream)
    //8、获取topic中的数据
    val topicData: DStream[String] = unionDStream.map(_._2)
    //9、切分每一行,每个单词计为1
    val wordAndOne: DStream[(String, Int)] = topicData.flatMap(_.split(" ")).map((_,1))
    //10、相同单词出现的次数累加
    val result: DStream[(String, Int)] = wordAndOne.reduceByKey(_+_)
    //11、打印输出
    result.print()

    //开启计算
    ssc.start()
    ssc.awaitTermination()
  }
}

(7)运行代码,查看控制台结果数据


总结:

通过这种方式实现,刚开始的时候系统正常运行,没有发现问题,但是如果系统异常重新启动sparkstreaming程序后,发现程序会重复处理已经处理过的数据,这种基于receiver的方式,是使用Kafka的高阶API来在ZooKeeper中保存消费过的offset的。这是消费Kafka数据的传统方式。这种方式配合着WAL机制可以保证数据零丢失的高可靠性,但是却无法保证数据被处理一次且仅一次,可能会处理两次。因为Spark和ZooKeeper之间可能是不同步的。官方现在也已经不推荐这种整合方式,官网相关地址下面我们使用官网推荐的第二种方式kafkaUtils的createDirectStream()方式。

 2.KafkaUtils.createDirectStream方式
不同于Receiver接收数据,这种方式定期地从kafka的topic下对应的partition中查询最新的偏移量,再根据偏移量范围在每个batch里面处理数据,Spark通过调用kafka简单的消费者Api读取一定范围的数据。
相比基于Receiver方式有几个优点: 
A、简化并行

不需要创建多个kafka输入流,然后union它们,sparkStreaming将会创建和kafka分区一种的rdd的分区数,而且会从kafka中并行读取数据,spark中RDD的分区数和kafka中的分区数据是一一对应的关系。

B、高效

第一种实现数据的零丢失是将数据预先保存在WAL中,会复制一遍数据,会导致数据被拷贝两次,第一次是被kafka复制,另一次是写到WAL中。而没有receiver的这种方式消除了这个问题。 
C、恰好一次语义(Exactly-once-semantics)

Receiver读取kafka数据是通过kafka高层次api把偏移量写入zookeeper中,虽然这种方法可以通过数据保存在WAL中保证数据不丢失,但是可能会因为sparkStreaming和ZK中保存的偏移量不一致而导致数据被消费了多次。EOS通过实现kafka低层次api,偏移量仅仅被ssc保存在checkpoint中,消除了zk和ssc偏移量不一致的问题。缺点是无法使用基于zookeeper的kafka监控工具

2.1KafkaUtils.createDirectStream实战
(1)前面的步骤跟KafkaUtils.createDstream方式一样,接下来开始执行代码。

KafkaUtils.createDirectStream方式(基于kafka低级Api-----偏移量由客户端程序保存)

package cn.itcast.dstream.kafka
import kafka.serializer.StringDecoder
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.streaming.dstream.{DStream, InputDStream}
import org.apache.spark.streaming.kafka.KafkaUtils

//todo:利用sparkStreaming对接kafka实现单词计数----采用Direct(低级API)
object SparkStreamingKafka_Direct {
    def main(args: Array[String]): Unit = {
      //1、创建sparkConf
      val sparkConf: SparkConf = new SparkConf()
        .setAppName("SparkStreamingKafka_Direct")
        .setMaster("local[2]")
      //2、创建sparkContext
      val sc = new SparkContext(sparkConf)
      sc.setLogLevel("WARN")
      //3、创建StreamingContext
      val ssc = new StreamingContext(sc,Seconds(5))
      //4、配置kafka相关参数
    val kafkaParams=Map("metadata.broker.list"->"node-1:9092,node-2:9092,node-3:9092","group.id"->"Kafka_Direct")
      //5、定义topic
      val topics=Set("kafka_spark")

      //6、通过 KafkaUtils.createDirectStream接受kafka数据,这里采用是kafka低级api偏移量不受zk管理

        val dstream: InputDStream[(String, String)] = 

        KafkaUtils.createDirectStream[String,String,StringDecoder,StringDecoder](ssc,kafkaParams,topics)

      //7、获取kafka中topic中的数据
        val topicData: DStream[String] = dstream.map(_._2)
      //8、切分每一行,每个单词计为1
      val wordAndOne: DStream[(String, Int)] = topicData.flatMap(_.split(" ")).map((_,1))
      //9、相同单词出现的次数累加
      val result: DStream[(String, Int)] = wordAndOne.reduceByKey(_+_)
      //10、打印输出
      result.print()
      //开启计算
      ssc.start()
      ssc.awaitTermination()
  }
}
查看控制台的输出:

Spark Streaming -2. Kafka集成指南(Kafka版本0.10.0或更高版本)

在spark1.3版本后,kafkautil里面提供了两个创建dstream的方法,

1、KafkaUtils.createDstream
构造函数为KafkaUtils.createDstream(ssc, [zk], [consumer group id], [per-topic,partitions] ) 
使用了receivers来接收数据,利用的是Kafka高层次的消费者api,对于所有的receivers接收到的数据将会保存在Spark executors中,然后通过Spark Streaming启动job来处理这些数据,默认会丢失,可启用WAL日志,该日志存储在HDFS上 
A、创建一个receiver来对kafka进行定时拉取数据,ssc的rdd分区和kafka的topic分区不是一个概念,故如果增加特定主体分区数仅仅是增加一个receiver中消费topic的线程数,并不增加spark的并行处理数据数量 
B、对于不同的group和topic可以使用多个receivers创建不同的DStream 
C、如果启用了WAL,需要设置存储级别,即KafkaUtils.createStream(….,StorageLevel.MEMORY_AND_DISK_SER)

2.KafkaUtils.createDirectStream
区别Receiver接收数据,这种方式定期地从kafka的topic+partition中查询最新的偏移量,再根据偏移量范围在每个batch里面处理数据,使用的是kafka的简单消费者api 
优点: 
A、 简化并行,不需要多个kafka输入流,该方法将会创建和kafka分区一样的rdd个数,而且会从kafka并行读取。 
B、高效,这种方式并不需要WAL,WAL模式需要对数据复制两次,第一次是被kafka复制,另一次是写到wal中 
C、恰好一次语义(Exactly-once-semantics),传统的读取kafka数据是通过kafka高层次api把偏移量写入zookeeper中,存在数据丢失的可能性是zookeeper中和ssc的偏移量不一致。EOS通过实现kafka低层次api,偏移量仅仅被ssc保存在checkpoint中,消除了zk和ssc偏移量不一致的问题。缺点是无法使用基于zookeeper的kafka监控工具


Kafka 0.10的Spark Streaming集成在设计上类似于0.8 Direct Stream方法。它提供简单的并行性,Kafka分区和Spark分区之间的1:1对应,以及访问偏移和元数据。然而,因为较新的集成使用新的Kafka消费者API而不是简单的API,所以在使用上有显着的差异。此版本的集成被标记为实验性的,因此API可能会更改。

链接
对于使用SBT / Maven项目定义的Scala / Java应用程序,请将流应用程序与以下工件链接(有关详细信息,请参阅主编程指南中的链接部分)。

groupId = org.apache.spark
artifactId = spark-streaming-kafka-0-10_2.11
version = 2.1.0
创建直接流
请注意,导入的命名空间包括版本org.apache.spark.streaming.kafka010

import java.util.*;
import org.apache.spark.SparkConf;
import org.apache.spark.TaskContext;
import org.apache.spark.api.java.*;
import org.apache.spark.api.java.function.*;
import org.apache.spark.streaming.api.java.*;
import org.apache.spark.streaming.kafka010.*;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.common.TopicPartition;
import org.apache.kafka.common.serialization.StringDeserializer;
import scala.Tuple2;
 
Map<String, Object> kafkaParams = new HashMap<>();
kafkaParams.put("bootstrap.servers", "localhost:9092,anotherhost:9092");
kafkaParams.put("key.deserializer", StringDeserializer.class);
kafkaParams.put("value.deserializer", StringDeserializer.class);
kafkaParams.put("group.id", "use_a_separate_group_id_for_each_stream");
kafkaParams.put("auto.offset.reset", "latest");
kafkaParams.put("enable.auto.commit", false);
 
Collection<String> topics = Arrays.asList("topicA", "topicB");
 
final JavaInputDStream<ConsumerRecord<String, String>> stream =
  KafkaUtils.createDirectStream(
    streamingContext,
    LocationStrategies.PreferConsistent(),
    ConsumerStrategies.<String, String>Subscribe(topics, kafkaParams)
  );
 
stream.mapToPair(
  new PairFunction<ConsumerRecord<String, String>, String, String>() {
    @Override
    public Tuple2<String, String> call(ConsumerRecord<String, String> record) {
      return new Tuple2<>(record.key(), record.value());
    }
  })
有关可能的kafkaParams,请参阅Kafka consumer配置文件。如果您的Spark批处理持续时间大于默认的Kafka心跳会话超时(30秒),请适当增加heartbeat.interval.ms和session.timeout.ms。对于大于5分钟的批次,这将需要更改代理上的group.max.session.timeout.ms。请注意,示例将enable.auto.commit设置为false,有关讨论,请参阅下面的存储偏移。

LocationStrategies
新的Kafka consumer API会将消息预取到缓冲区中。因此,出于性能原因,Spark集成保持缓存消费者对执行者(而不是为每个批次重新创建它们)是重要的,并且更喜欢在具有适当消费者的主机位置上调度分区。

在大多数情况下,您应该使用LocationStrategies.PreferConsistent如上所示。这将在可用的执行器之间均匀分配分区。如果您的执行程序与Kafka代理所在的主机相同,请使用PreferBrokers,这将更喜欢在该分区的Kafka leader上安排分区。最后,如果您在分区之间的负载有显着偏差,请使用PreferFixed。这允许您指定分区到主机的显式映射(任何未指定的分区将使用一致的位置)。

消费者的缓存的默认最大大小为64.如果您希望处理超过(64 *个执行程序数)Kafka分区,则可以通过以下方式更改此设置: spark.streaming.kafka.consumer.cache.maxCapacity

缓存由topicpartition和group.id键入,因此对每个调用使用一个单独 group.id的createDirectStream。

ConsumerStrateges
新的Kafka consumer API有许多不同的方式来指定主题,其中一些需要相当多的后对象实例化设置。 ConsumerStrategies提供了一种抽象,允许Spark即使在从检查点重新启动后也能获得正确配置的消费者。

ConsumerStrategies.Subscribe,如上所示,允许您订阅固定的主题集合。SubscribePattern允许您使用正则表达式来指定感兴趣的主题。注意,与0.8集成不同,在运行流期间使用Subscribe或SubscribePattern应该响应添加分区。最后,Assign允许您指定固定的分区集合。所有三个策略都有重载的构造函数,允许您指定特定分区的起始偏移量。

如果您具有上述选项不满足的特定用户设置需求,则ConsumerStrategy是可以扩展的公共类。

创建RDD
如果您有一个更适合批处理的用例,则可以为定义的偏移量范围创建RDD。

// Import dependencies and create kafka params as in Create Direct Stream above
 
OffsetRange[] offsetRanges = {
  // topic, partition, inclusive starting offset, exclusive ending offset
  OffsetRange.create("test", 0, 0, 100),
  OffsetRange.create("test", 1, 0, 100)
};
 
JavaRDD<ConsumerRecord<String, String>> rdd = KafkaUtils.createRDD(
  sparkContext,
  kafkaParams,
  offsetRanges,
  LocationStrategies.PreferConsistent()
);
注意,你不能使用PreferBrokers,因为没有流没有驱动程序端消费者为你自动查找代理元数据。如果需要,请PreferFixed使用您自己的元数据查找。

获取偏移
stream.foreachRDD(new VoidFunction<JavaRDD<ConsumerRecord<String, String>>>() {
  @Override
  public void call(JavaRDD<ConsumerRecord<String, String>> rdd) {
    final OffsetRange[] offsetRanges = ((HasOffsetRanges) rdd.rdd()).offsetRanges();
    rdd.foreachPartition(new VoidFunction<Iterator<ConsumerRecord<String, String>>>() {
      @Override
      public void call(Iterator<ConsumerRecord<String, String>> consumerRecords) {
        OffsetRange o = offsetRanges[TaskContext.get().partitionId()];
        System.out.println(
          o.topic() + " " + o.partition() + " " + o.fromOffset() + " " + o.untilOffset());
      }
    });
  }
});
注意类型转换HasOffsetRanges只会成功,如果是在第一个方法中调用的结果createDirectStream,不是后来一系列的方法。请注意,RDD分区和Kafka分区之间的一对一映射在任何随机或重新分区的方法(例如reduceByKey()或window())后不会保留。

存储偏移
在失败的情况下的Kafka交付语义取决于如何和何时存储偏移。火花输出操作至少一次。因此,如果你想要一个完全一次的语义的等价物,你必须在一个等幂输出之后存储偏移,或者在一个原子事务中存储偏移和输出。使用这种集成,您有3个选项,按照可靠性(和代码复杂性)的增加,如何存储偏移。

检查点
如果启用Spark 检查点,偏移将存储在检查点中。这很容易实现,但有缺点。你的输出操作必须是幂等的,因为你会得到重复的输出; 事务不是一个选项。此外,如果应用程序代码已更改,您将无法从检查点恢复。对于计划升级,您可以通过与旧代码同时运行新代码来缓解这种情况(因为输出必须是幂等的,它们不应该冲突)。但对于需要更改代码的意外故障,您将丢失数据,除非您有其他方法来识别已知的良好起始偏移。

kafka
Kafka有一个偏移提交API,将偏移存储在特殊的Kafka主题中。默认情况下,新消费者将定期自动提交偏移量。这几乎肯定不是你想要的,因为消费者成功轮询的消息可能还没有导致Spark输出操作,导致未定义的语义。这就是为什么上面的流示例将“enable.auto.commit”设置为false的原因。但是,您可以在使用commitAsyncAPI 存储了输出后,向Kafka提交偏移量。与检查点相比,Kafka是一个耐用的存储,而不管您的应用程序代码的更改。然而,Kafka不是事务性的,所以你的输出必须仍然是幂等的。

stream.foreachRDD(new VoidFunction<JavaRDD<ConsumerRecord<String, String>>>() {
  @Override
  public void call(JavaRDD<ConsumerRecord<String, String>> rdd) {
    OffsetRange[] offsetRanges = ((HasOffsetRanges) rdd.rdd()).offsetRanges();
 
    // some time later, after outputs have completed
    ((CanCommitOffsets) stream.inputDStream()).commitAsync(offsetRanges);
  }
});
您自己的数据存储
对于支持事务的数据存储,即使在故障情况下,也可以在同一事务中保存偏移量作为结果,以保持两者同步。如果您仔细检查重复或跳过的偏移范围,则回滚事务可防止重复或丢失的邮件影响结果。这给出了恰好一次语义的等价物。也可以使用这种策略甚至对于聚合产生的输出,聚合通常很难使幂等。


// The details depend on your data store, but the general idea looks like this
 
// begin from the the offsets committed to the database
Map<TopicPartition, Long> fromOffsets = new HashMap<>();
for (resultSet : selectOffsetsFromYourDatabase)
  fromOffsets.put(new TopicPartition(resultSet.string("topic"), resultSet.int("partition")), resultSet.long("offset"));
}
 
JavaInputDStream<ConsumerRecord<String, String>> stream = KafkaUtils.createDirectStream(
  streamingContext,
  LocationStrategies.PreferConsistent(),
  ConsumerStrategies.<String, String>Assign(fromOffsets.keySet(), kafkaParams, fromOffsets)
);
 
stream.foreachRDD(new VoidFunction<JavaRDD<ConsumerRecord<String, String>>>() {
  @Override
  public void call(JavaRDD<ConsumerRecord<String, String>> rdd) {
    OffsetRange[] offsetRanges = ((HasOffsetRanges) rdd.rdd()).offsetRanges();
    
    Object results = yourCalculation(rdd);
 
    // begin your transaction
 
    // update results
    // update offsets where the end of existing offsets matches the beginning of this batch of offsets
    // assert that offsets were updated correctly
 
    // end your transaction
  }
});
SSL / TLS
新的Kafka消费者支持SSL。要启用它,请在传递到createDirectStream/ 之前适当地设置kafkaParams createRDD。注意,这只适用于Spark和Kafka代理之间的通信; 您仍然有责任单独保证 Spark节点间通信。

Map<String, Object> kafkaParams = new HashMap<String, Object>();
// the usual params, make sure to change the port in bootstrap.servers if 9092 is not TLS
kafkaParams.put("security.protocol", "SSL");
kafkaParams.put("ssl.truststore.location", "/some-directory/kafka.client.truststore.jks");
kafkaParams.put("ssl.truststore.password", "test1234");
kafkaParams.put("ssl.keystore.location", "/some-directory/kafka.client.keystore.jks");
kafkaParams.put("ssl.keystore.password", "test1234");
kafkaParams.put("ssl.key.password", "test1234");
部署
与任何Spark应用程序一样,spark-submit用于启动应用程序。

对于Scala和Java应用程序,如果您使用SBT或Maven进行项目管理,则将程序包spark-streaming-kafka-0-10_2.11及其依赖项包含到应用程序JAR中。确保spark-core_2.11并spark-streaming_2.11标记为provided依赖关系,因为它们已经存在于Spark安装中。然后使用spark-submit启动应用程序(请参阅主程序指南中的部署部分)。

KafkaUtils.createDirectStream or KafkaUtils.createStream

  1. createDirectStream:Direct DStream方式由kafka的SimpleAPI实现 ,比较灵活,可以自行指定起始的offset,性能较createStream高,
    SparkStreaming读取时在其内自行维护offset但不会自动提交到zk中,如果要监控offset情况,需要自己实现。

spark-streaming-kafka-0-10中已经实现offset自动提交zk中

  1. createStream:采用了Receiver DStream方式由kafka的high-level API实现

最新的实现中createDirectStream也可以提交offset了spark-streaming-kafka-0-10http://spark.apache.org/docs/latest/streaming-kafka-integration.html但要求 kafka是0.10.0及以后。

createDirectStream中的offset

createDirectStream不会自动提交offset到zk中,不能方便的监控数据消费情况

KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, Set(topic))
       .transform(rdd => {
       val offsets = rdd.asInstanceOf[HasOffsetRanges].offsetRanges
       for (offset <- offsets) {
           val topicAndPartition = TopicAndPartition(offset.topic, offset.partition)
           //保存offset至zk可redis中方便监控
           //commitOffset(kafkaParams,groupId, Map(topicAndPartition -> offset.untilOffset))
       }
       rdd
       })

如果可以只是用来监控消费情况在transform中转换成HasOffsetRanges取出offset保存到zk中即可,

"rdd.asInstanceOf[HasOffsetRanges].offsetRanges" 如果已经经过其它Transformations或output操作之后此rdd已经不是KafkaRDD,再转换会报错!!

另外还有一个控制能更强的createDirectStream方法,可以指定fromOffsets和messageHandler
def createDirectStream(
ssc: StreamingContext,
kafkaParams: Map[String, String],
fromOffsets: Map[TopicAndPartition, Long],
messageHandler: MessageAndMetadata[K, V] => R
)

可以将offset保存在zk或redis等外部存储中方便监控,然后下次启动时再从中读取

分区partition

Kafka中的partition和Spark中的partition是不同的概念,但createDirectStream方式时topic的总partition数量和Spark和partition数量相等。
```
//KafkaRDD.getPartitions
override def getPartitions: Array[Partition] = {
offsetRanges.zipWithIndex.map { case (o, i) =>
val (host, port) = leaders(TopicAndPartition(o.topic, o.partition))
new KafkaRDDPartition(i, o.topic, o.partition, o.fromOffset, o.untilOffset, host, port)
}.toArray
}

    ```

partition中数据分布不均会导致有些任务快有些任务慢,影响整体性能,可以根据实际情况做repartition,单个topic比较容易实现partition中数据分布均匀,但如果同一个程序中需要同时处理多个topic的话,可以考虑能否合并成一个topic,增加partition数量,不过topic很多时间会和其它系统共用,所以可能不容易合并,这情况只能做repartition。虽然repartition会消耗一些时间,但总的来说,如果数据分布不是很均匀的话repartition还是值得,repartition之后各任务处理数据量基本一样,而且Locality_level会变成“PROCESS_LOCAL”

!!使用flume加载到kafka的使用默认配置十有八九分布不匀

检查点

代码:

Object SparkApp(){
def gnStreamContext(chkdir:String,batchDuration: Duration,partitions:Int)={
    val conf = new SparkConf().setAppName("GnDataToHive") //.setMaster("local[2]")
    val ssc = new StreamingContext(conf, batchDuration)
    KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, Set(topic))
    ...........
    ...........
    ...........
    val terminfos = ssc.sparkContext.broadcast(ttis) 
    ssc.checkpoint(chkdir)
    ssc
  }
 def main(args: Array[String]): Unit = {
    val chkdir="hdfs://xxxxx/chkpoint/chkpoint-1"
    val chkssc = StreamingContext.getOrCreate(chkdir,()=>gnStreamContext(chkdir,Seconds(args(0).toInt),args(1).toInt))
    chkssc.start()
    chkssc.awaitTermination()
  }
}

offset会在保存至检查点中,下次启动会继续接着读取但是以下问题需要注意:

  1. kafka中数通常保存周期都不会太长,都有清理周期,如果记录的offset对应数据已经被清理,从检查点恢复时程序会一直报错。

  2. 如果程序逻辑发生变化,需要先删除检查点,否则不管数据还是逻辑都会从旧检查点恢复。

限流

可以用spark.streaming.kafka.maxRatePerPartition指定每个批次从每个partition中每秒中最大拉取的数据量,比如将值设为1000的话,每秒钟最多从每个partition中拉取1000条数据,如果batchDuration设为1分钟的话,则每个批次最多从每个partition中拉取60000条数据。
此值要设置合理,太小有可能导致资源浪费,但kafka中的数据消费不完,太多又达不到限流的目的

具体代码见:
DirectKafkaInputDStream.maxMessagesPerPartition
DirectKafkaInputDStream.clamp

    ```
     // limits the maximum number of messages per partition
      protected def clamp(
        leaderOffsets: Map[TopicAndPartition, LeaderOffset]): Map[TopicAndPartition, LeaderOffset] = {
        maxMessagesPerPartition.map { mmp =>
          leaderOffsets.map { case (tp, lo) =>
            tp -> lo.copy(offset = Math.min(currentOffsets(tp) + mmp, lo.offset))
          }
        }.getOrElse(leaderOffsets)
      }
    ```

spark-submit提交时带上即可:--conf spark.streaming.kafka.maxRatePerPartition=10000

貌似只能在createDirectStream中起作用,在createStream方式中没看到有类似设置

hdfs输出文件名:

写入hdfs时默认目录名格式为:"prefix-TIME_IN_MS.suffix",每个目录下的文件名为"part-xxxx"。
如果只想自定义目录名可以通过foreachRDD,调用RDD的saveAsXXX dstream.foreachRDD(rdd=>rdd.saveAsxxxx(""))
如果需要自定义输出的文件名,需要自定义一个FileOutputFormat的子类,修改getRecordWriter方法中的name即可,然后调用saveAsHadoopFile[MyTextOutputFormat[NullWritable, Text]]

外部数据关联

某些情况下载关联外部数据进行关联或计算。

  1. 外部数据放在redis中,在mapPartitionsforeachRDD.foreachPartitions中关联
  2. 外部数据以broadcast变量形式做关联

其它

  1. 日志:提交作业时spark-submit默认会读取$SPARK_HOME/conf/log4j.properties如果需要自定义可以在提交作业时可以带上 --conf spark.driver.extraJavaOptions=-Dlog4j.configuration=file://xx/xx/log4j.properties

kafka-sparkstreaming自己维护offset

auto.offset.reset

By default, it will start consuming from the latest offset of each Kafka partition. If you set configuration auto.offset.reset in Kafka parameters to smallest, then it will start consuming from the smallest offset.

OffsetRange

topic主题,分区ID,起始offset,结束offset

重写思路

因为spark源码中KafkaCluster类被限制在[spark]包下,所以我们如果想要在项目中调用这个类,那么只能在项目中也新建包org.apache.spark.streaming.kafka.然后再该包下面写调用的逻辑.这里面就可以引用KafkaCluster类了.这个类里面封装了很多实用的方法,比如:获取主题和分区,获取offset等等...

这些api,spark里面都有现成的,我们现在就是需要组织起来!

offsetRanges = rdd.asInstanceOf[HasOffsetRanges].offsetRanges

简单说一下

  1. 在zookeeper上读取offset前先根据实际情况更新fromOffsets
    1.1 如果是一个新的groupid,那么会从最新的开始读
    1.2 如果是存在的groupid,根据配置auto.offset.reset
    1.2.1 smallest : 那么会从开始读,获取最开始的offset.
    1.2.2 largest : 那么会从最新的位置开始读取,获取最新的offset.

  2. 根据topic获取topic和该topics下所有的partitions

val partitionsE = kc.getPartitions(topics)
  1. 传入上面获取到的topics和该分区所有的partitions
val consumerOffsetsE = kc.getConsumerOffsets(groupId, partitions)
  1. 获取到该topic下所有分区的offset了.最后还是调用spark中封装好了的api
KafkaUtils.createDirectStream[K, V, KD, VD, (K, V, String)](
                ssc, kafkaParams, consumerOffsets, (mmd: MessageAndMetadata[K, V]) => ( mmd.key, mmd.message, mmd.topic))
  1. 更新zookeeper中的kafka消息的偏移量
kc.setConsumerOffsets(groupId, Map((topicAndPartition, offsets.untilOffset)))

问题

sparkstreaming-kafka的源码中是自己把offset维护在kafka集群中了?

./kafka-consumer-groups.sh --bootstrap-server 10.10.25.13:9092 --describe  --group heheda

因为用命令行工具可以查到,这个工具可以查到基于javaapi方式的offset,查不到在zookeeper中的

网上的自己维护offset,是把offset维护在zookeeper中了?
用这个方式产生的groupid,在命令行工具中查不到,但是也是调用的源码中的方法呢?
难道spark提供了这个方法,但是自己却没有用是吗?

自己维护和用原生的区别

区别只在于,自己维护offset,会先去zk中获取offset,逻辑处理完成后再更新zk中的offset.
然而,在代码层面,区别在于调用了不同的KafkaUtils.createDirectStream

自己维护

自己维护的offset,这个方法会传入offset.因为在此之前我们已经从zk中获取到了起始offset

KafkaUtils.createDirectStream[K, V, KD, VD, (K, V, String)](
                ssc, kafkaParams, consumerOffsets, (mmd: MessageAndMetadata[K, V]) => ( mmd.key, mmd.message, mmd.topic))

原生的

接受的是一个topic,底层会根据topic去获取存储在kafka中的起始offset

KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, myTopic)

接下来这个方法里面会调用getFromOffsets来获取起始的offset

val kc = new KafkaCluster(kafkaParams)
val fromOffsets = getFromOffsets(kc, kafkaParams, topics)

代码

这个代码,网上很多,GitHub上也有现成的了.这里我就不贴出来了!
这里主要还是学习代码的实现思路!

如何引用spark源码中限制了包的代码

  1. 新建和源码中同等的包名,如上所述.
  2. 把你需要的源码拷贝一份出来,但是可能源码里面又引用了别的,这个不一定好使.
  3. 在你需要引用的那个类里,把这个类的包名改成与你需要引用的包名一样.最简单的办法了

本文转载自:https://blog.csdn.net/weixin_41615494/article/details/79521737

hblt-j
粉丝 24
博文 218
码字总数 73000
作品 0
海淀
架构师
私信 提问
基于Kafka+SparkStreaming+HBase实时点击流案例

前言 最近在专注Spark开发,记录下自己的工作和学习路程,希望能跟大家互相交流成长 本文章更倾向于实战案例,涉及框架原理及基本应用还请读者自行阅读相关文章,相关在本文章最后参考资料中...

舒运
2018/07/13
455
1
Spark实战 | Kafka与Spark Streaming的联姻

Kafka与Spark虽然没有很直接的必然关系,但是实际应用中却经常以couple的形式存在。如果你的Kafka的爱好者,流式计算框架Spark、Flink等也不得不去了解;如果你是Spark的爱好者,Kafka又或许...

HBase技术社区
02/28
0
0
整合Kafka到Spark Streaming——代码示例和挑战

作者Michael G. Noll是瑞士的一位工程师和研究员,效力于Verisign,是Verisign实验室的大规模数据分析基础设施(基础Hadoop)的技术主管。本文,Michael详细的演示了如何将Kafka整合到Spark...

stark_summer
2015/03/03
784
0
上海大数据实战开发转型—程序员未来的筹码

活动将长期(每周六)举行,报名后我们会第一时间与您联系 活动流程 13:30 签到 14:00 老师分享 16:00 互动交流 16:30 活动结束 (Hadoop) (含项目实战) NoSQL专题(含HBase) Hadoop企业项...

简直是天才
2018/05/15
20
0
上海大数据实战开发转型—程序员未来的筹码

活动将长期(每周六)举行,报名后我们会第一时间与您联系 活动流程 13:30 签到 14:00 老师分享 16:00 互动交流 16:30 活动结束 (Hadoop) (含项目实战) NoSQL专题(含HBase) Hadoop企业项...

简直是天才
2018/05/15
86
0

没有更多内容

加载失败,请刷新页面

加载更多

浅谈prototype原型模式

一、原型模式简介 原型(Prototype)模式是一种对象创建型模式,他采取复制原型对象的方法来创建对象的实例。使用原型模式创建的实例,具有与原型一样的数据。 原型模式的特点: 1、由原型对...

青衣霓裳
13分钟前
2
0
shell mysql 备份

#!/bin/bash time2=$(date "+%Y-%m-%d-%H:%M:%S") /usr/local/mysql/bin/mysqldump -uroot -p ad > /usr/local/mysql/backup/"$time2".sql 变量引用原来是这么用的。......

奋斗的小牛
21分钟前
3
0
Jmeter监控Linux服务器操作

系统:Win7 64位 工具:Jmeter 4.0 要准备好的插件:JMeterPlugins-Standard-1.4.0,ServerAgent-2.2.1 解压JMeterPlugins-Standard-1.4.0.zip,将其中\lib\ext\JMeterPlugins-Standard.jar......

魔鬼妹子
21分钟前
4
0
系列文章:云原生Kubernetes日志落地方案

在Logging这块做了几年,最近1年来越来越多的同学来咨询如何为Kubernetes构建一个日志系统或者是来求助在这过程中遇到一系列问题如何解决,授人以鱼不如授人以渔,于是想把我们这些年积累的经...

Mr_zebra
22分钟前
3
0
入门必备!快速学会用Aspose.Words在表格中插入和删除列!

Aspose.Words For .Net(点击下载)是一种高级Word文档处理API,用于执行各种文档管理和操作任务。API支持生成,修改,转换,呈现和打印文档,而无需在跨平台应用程序中直接使用Microsoft W...

mnrssj
27分钟前
3
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部