Spark里几个重要的概念及架构

原创
2015/09/18 10:09
阅读数 537

注意Driver Program,就是运行spark主程序的程序。

在spark-submit提交时有2种模式,client和cluster。

下面是说明:

--deploy-mode DEPLOY_MODE   Whether to launch the driver program locally ("client") or
                              on one of the worker machines inside the cluster ("cluster")
                              (Default: client).

client模式是独立一个线程来提交运行spark主程序,可以交互和查看日志等等。

cluster模式是spark主程序运行在cluster集群中的一个线程中,无法交互。

 

spark-shell命令只能是client,不能为cluster。其实spark-shell是spark的一个特殊的应用,也是运行在spark集群上的。

 

学习Spark,有几个重要的术语需要弄清楚。

1. Application

用户在spark上构建的程序,包含了driver程序以及集群上的executors.

2. Driver Program

运行main函数并且创建SparkContext的程序。

客户端的应用程序,Driver Program类似于hadoop的wordcount程序的main函数。

3.Cluster Manager

集群的资源管理器,在集群上获取资源的外部服务。

Such as Standalone、Mesos、Yarn。

拿Yarn举例,客户端程序会向Yarn申请计算我这个任务需要多少的内存,多少CPU,etc。

然后Cluster Manager会通过调度告诉客户端可以使用,然后客户端就可以把程序送到每个Worker Node上面去执行了。

4.Worker Node

集群中任何一个可以运行spark应用代码的节点。

Worker Node就是物理节点,可以在上面启动Executor进程。

5.Executor

在每个WorkerNode上为某应用启动的一个进程,该进程负责运行任务,并且负责将数据存在内存或者磁盘上,每个任务都有各自独立的Executor。

Executor是一个执行Task的容器。它的主要职责是:

1、初始化程序要执行的上下文SparkEnv,解决应用程序需要运行时的jar包的依赖,加载类。

2、同时还有一个ExecutorBackend向cluster manager汇报当前的任务状态,这一方面有点类似hadoop的tasktracker和task。

总结:Executor是一个应用程序运行的监控和执行容器。

6.Job

包含很多task的并行计算,可以认为是Spark RDD 里面的action,每个action的计算会生成一个job。

用户提交的Job会提交给DAGScheduler,Job会被分解成Stage和Task。

7.Stage

一个Job会被拆分为多组Task,每组任务被称为一个Stage就像Map Stage, Reduce Stage。

Stage的划分在RDD的论文中有详细的介绍,简单的说是以shuffle和result这两种类型来划分。在Spark中有两类task,一类是shuffleMapTask,一类是resultTask,第一类task的输出是shuffle所需数据,第二类task的输出是result,stage的划分也以此为依据,shuffle之前的所有变换是一个stage,shuffle之后的操作是另一个stage。比如 rdd.parallize(1 to 10).foreach(println) 这个操作没有shuffle,直接就输出了,那么只有它的task是resultTask,stage也只有一个;如果是rdd.map(x => (x, 1)).reduceByKey(_ + _).foreach(println), 这个job因为有reduce,所以有一个shuffle过程,那么reduceByKey之前的是一个stage,执行shuffleMapTask,输出shuffle所需的数据,reduceByKey到最后是一个stage,直接就输出结果了。如果job中有多次shuffle,那么每个shuffle之前都是一个stage。

8.Task

被送到executor上的工作单元。

Spark上分为2类task。

1.shuffleMapTask

 * A ShuffleMapTask divides the elements of an RDD into multiple buckets (based on a partitioner
 * specified in the ShuffleDependency).

2.resultTask

 * A task that sends back the output to the driver application.

9. Partition

Partition类似hadoop的Split,计算是以partition为单位进行的,当然partition的划分依据有很多,这是可以自己定义的,像HDFS文件,划分的方式就和MapReduce一样,以文件的block来划分不同的partition。总而言之,Spark的partition在概念上与hadoop中的split是相似的,提供了一种划分数据的方式。

附录:

RDD的一大卖点就是有依赖关系存储在每一个RDD里面,当某一个RDD计算的时候发现parent RDD的数据丢失了,那它就会从parent的parent RDD重新计算一遍以恢复出parent数据,如果一直没找到,那么就会找到根RDD,有可能是HadoopRDD,那么就会从HDFS上读出数据一步步恢复出来。当然如果完全找不到数据,那么就恢复不出来了。在论文中称之为RDD的lineage信息。

另外RDD这个对象是存储在client中的,而RDD的数据才是存储在worker上的,只要RDD对象不被GC掉数据是可以通过lineage信息恢复的。【部分引用http://jerryshao.me/

 

转载:

Spark里几个重要的概念及术语

Spark1.0.0 运行架构基本概念

展开阅读全文
加载中
点击引领话题📣 发布并加入讨论🔥
打赏
0 评论
4 收藏
0
分享
返回顶部
顶部