文档章节

Spark里几个重要的概念及术语

 新司机
发布于 2017/01/03 09:29
字数 1032
阅读 4
收藏 0

学习Spark,有几个重要的术语需要弄清楚。
1. Application
    用户在spark上构建的程序,包含了driver程序以及集群上的executors.

2. Driver Program
    运行main函数并且创建SparkContext的程序。
    客户端的应用程序,Driver Program类似于Hadoop的wordcount程序的main函数。

3.Cluster Manager
    集群的资源管理器,在集群上获取资源的外部服务。
    Such as Standalone、Mesos、Yarn。
    拿Yarn举例,客户端程序会向Yarn申请计算我这个任务需要多少的内存,多少CPU,etc。然后Cluster Manager会通过调度告诉客户端可以使用,然后客户端就可以把程序送到每个Worker Node上面去执行了。

4.Worker Node
    集群中任何一个可以运行spark应用代码的节点。
    Worker Node就是物理节点,可以在上面启动Executor进程。

5.Executor
    在每个WorkerNode上为某应用启动的一个进程,该进程负责运行任务,并且负责将数据存在内存或者磁盘上,每个任务都有各自独立的Executor。
    Executor是一个执行Task的容器。它的主要职责是:

      1、初始化程序要执行的上下文SparkEnv,解决应用程序需要运行时的jar包的依赖,加载类。

    2、同时还有一个ExecutorBackend向cluster manager汇报当前的任务状态,这一方面有点类似hadoop的tasktracker和task。
    总结:Executor是一个应用程序运行的监控和执行容器。

6.Job
    包含很多task的并行计算,可以认为是Spark RDD 里面的action,每个action的计算会生成一个job。用户提交的Job会提交给DAGScheduler,Job会被分解成Stage和Task。

7.Stage
    一个Job会被拆分为多组Task,每组任务被称为一个Stage就像Map Stage, Reduce Stage。
    Stage的划分在RDD的论文中有详细的介绍,简单的说是以shuffle和result这两种类型来划分。在Spark中有两类task,一类是shuffleMapTask,一类是resultTask,第一类task的输出是shuffle所需数据,第二类task的输出是result,stage的划分也以此为依据,shuffle之前的所有变换是一个stage,shuffle之后的操作是另一个stage。比如 rdd.parallize(1 to 10).foreach(println) 这个操作没有shuffle,直接就输出了,那么只有它的task是resultTask,stage也只有一个;如果是rdd.map(x => (x, 1)).reduceByKey(_ + _).foreach(println), 这个job因为有reduce,所以有一个shuffle过程,那么reduceByKey之前的是一个stage,执行shuffleMapTask,输出shuffle所需的数据,reduceByKey到最后是一个stage,直接就输出结果了。如果job中有多次shuffle,那么每个shuffle之前都是一个stage。

8.Task
    被送到executor上的工作单元。
    Spark上分为2类task。
    1.shuffleMapTask
     * A ShuffleMapTask divides the elements of an RDD into multiple buckets (based on a partitioner
         * specified in the ShuffleDependency).

    2.resultTask
         * A task that sends back the output to the driver application.

9. Partition
    Partition类似hadoop的Split,计算是以partition为单位进行的,当然partition的划分依据有很多,这是可以自己定义的,像HDFS文件,划分的方式就和MapReduce一样,以文件的block来划分不同的partition。总而言之,Spark的partition在概念上与hadoop中的split是相似的,提供了一种划分数据的方式。

附录:
    RDD的一大卖点就是有依赖关系存储在每一个RDD里面,当某一个RDD计算的时候发现parent RDD的数据丢失了,那它就会从parent的parent RDD重新计算一遍以恢复出parent数据,如果一直没找到,那么就会找到根RDD,有可能是HadoopRDD,那么就会从HDFS上读出数据一步步恢复出来。当然如果完全找不到数据,那么就恢复不出来了。在论文中称之为RDD的lineage信息。

    另外RDD这个对象是存储在client中的,而RDD的数据才是存储在worker上的,只要RDD对象不被GC掉数据是可以通过lineage信息恢复的。

本文转载自:http://blog.csdn.net/oopsoom/article/details/23857949

粉丝 0
博文 8
码字总数 596
作品 0
北京
程序员
私信 提问
如何在万亿级别规模的数据量上使用Spark?

  【IT168 技术】   一、前言   Spark作为大数据计算引擎,凭借其快速、稳定、简易等特点,快速的占领了大数据计算的领域。本文主要为作者在搭建使用计算平台的过程中,对于Spark的理解...

网络大数据
2018/05/30
0
0
如何在万亿级别规模的数据量上使用Spark

一、前言 Spark作为大数据计算引擎,凭借其快速、稳定、简易等特点,快速的占领了大数据计算的领域。本文主要为作者在搭建使用计算平台的过程中,对于Spark的理解,希望能给读者一些学习的思...

风火数据
2018/05/14
0
0
Spark 集群模式概述

这篇文章简单回顾下Spark如何在集群上运行,以使其中的组件更易理解。 组件 Spark应用在集群上以独立的进程集合运行,在你的主程序(称作驱动程序)中以SparkContext对象来调节。特别的,为了...

vincent_hv
2013/10/14
2.9K
3
【DataMagic】如何在万亿级别规模的数据量上使用Spark

欢迎大家前往腾讯云+社区,获取更多腾讯海量技术实践干货哦~ 本文首发在云+社区,未经许可,不得转载。 作者:张国鹏 | 腾讯 运营开发工程师 一、前言 Spark作为大数据计算引擎,凭借其快速、...

2018/04/18
0
0
新手入门:Spark 部署实战入门

Spark简介 整体认识 Apache Spark是一个围绕速度、易用性和复杂分析构建的大数据处理框架。最初在2009年由加州大学伯克利分校的AMPLab开发,并于2010年成为Apache的开源项目之一。 Spark在整...

景龙Edward
2016/07/05
16.1K
5

没有更多内容

加载失败,请刷新页面

加载更多

Spring Cloud 笔记之Spring cloud config client

观察者模式它的数据的变化是被动的。 观察者模式在java中的实现: package com.hxq.springcloud.springcloudconfigclient;import org.springframework.context.ApplicationListener;i...

xiaoxiao_go
37分钟前
3
0
CentOS7.6中安装使用fcitx框架

内容目录 一、为什么要使用fcitx?二、安装fcitx框架三、安装搜狗输入法 一、为什么要使用fcitx? Gnome3桌面自带的输入法框架为ibus,而在使用ibus时会时不时出现卡顿无法输入的现象。 搜狗和...

技术训练营
今天
4
0
《Designing.Data-Intensive.Applications》笔记 四

第九章 一致性与共识 分布式系统最重要的的抽象之一是共识(consensus):让所有的节点对某件事达成一致。 最终一致性(eventual consistency)只提供较弱的保证,需要探索更高的一致性保证(stro...

丰田破产标志
今天
7
0
docker 使用mysql

1, 进入容器 比如 myslq1 里面进行操作 docker exec -it mysql1 /bin/bash 2. 退出 容器 交互: exit 3. mysql 启动在容器里面,并且 可以本地连接mysql docker run --name mysql1 --env MY...

之渊
今天
7
0
python数据结构

1、字符串及其方法(案例来自Python-100-Days) def main(): str1 = 'hello, world!' # 通过len函数计算字符串的长度 print(len(str1)) # 13 # 获得字符串首字母大写的...

huijue
今天
5
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部