apache pig技术综述
apache pig技术综述
xuesong13 发表于3年前
apache pig技术综述
  • 发表于 3年前
  • 阅读 90
  • 收藏 0
  • 点赞 0
  • 评论 0

新睿云服务器60天免费使用,快来体验!>>>   

摘要: 本文总结了apache pig 的部署使用。

1         产品概述

1.1  产品功能

        Google的工程师为了方便自己对MapReduce的实现开发了一个叫做Sawzall的工具,然后发表了几篇论文放在网上,Apache根据论文开发出了类似SawzallPig语言,所以说Pig就是Sawzall的山寨版。

        Pig 是一个高级过程语言,适合于使用 Hadoop MapReduce 平台来查询大型半结构化数据集。通过允许对分布式数据集进行类似SQL的查询,Pig可以简化Hadoop的使用。它提供的SQL-LIKE语言叫Pig Latin,该语言的编译器会把类SQL的数据分析请求转换为一系列经过优化处理的MapReduce运算。Pig为复杂的海量数据并行计算提供了一个简单的操作和编程接口。

    在MapReduce框架中有mapreduce两个函数,如果亲手开发一个MapReduce应用,需要从编写代码,编译,部署,放在Hadoop上执行这个MapReduce程序需要耗费一定时间,有了Pig后不仅仅可以简化你对MapReduce的开发,而且还可以对不同的数据之间进行转换。

        Pig可以纯本地运行,下载Pig包后解压,执行“bin/pig -x local”命令直接运行,非常简单,这就是local模式,但是生产环境中往往不这样使用,而是将Pighdfs/hadoop集群环境进行对接。所以说Pig就是对mapreduce算法(框架)实现的一套shell脚本,类似SQL语句,在Pig中称之为Pig Latin,在这套脚本中可以对加载进来的数据进行排序、过滤、求和、分组(group by)、关联(Joining)Pig也可以由用户自定义一些函数对数据集进行操作,即UDF(user-defined functions)

    经过Pig Latin的转换后变成了一道MapReduce的作业,通过MapReduce多个线程、进程或者独立系统并行执行处理的结果集进行分类和归纳。Map() Reduce()两个函数会并行运行,即使不是在同一的系统的同一时刻也在同时运行一套任务,当所有的处理都完成之后,结果将被排序,格式化,并且保存到一个文件。Pig利用MapReduce将计算分成两个阶段,第一个阶段分解成为小块并且分布到每一个存储数据的节点上进行执行,对计算的压力进行分散,第二个阶段聚合第一个阶段执行的这些结果,这样可以达到非常高的吞吐量,通过不多的代码和工作量就能够驱动上千台机器并行计算,充分利用计算机的资源,克服了运行中的瓶颈。

1.2  应用场景

        Apache Pig是一个基于Hadoop的大规模数据分析平台,用PigTB级别的数据进行查询非常轻松,并且这些海量的数据都是非结构化的数据,例如:一堆文件可能是log4j输出日志并且存放于跨越多个计算机的多个磁盘上,用来记录上千台在线服务器的健康状态日志,交易日至,IP访问记录,应用服务日志等等。通常需要统计或者抽取这些记录,或者查询异常记录,对这些记录形成一些报表,将数据转化为有价值的信息,这样的话查询会较为复杂,此时类似MySQL这样的产品就不一定能满足对速度、执行效率上的需求,而用ApachePig可以实现这样的目标。

1.3  hive比较

    虽然pighive都是一种大规模数据分析工具,但Hive似乎有点数据库的影子,而Pig则是一个对MapReduce实现的工具(脚本)。两者都拥有自己的表达语言,其目的是将MapReduce的实现进行简化,并且读写操作数据最终都是存储在HDFS分布式文件系统上。看起来PigHive有些类似的地方,但也有些不同,它们的比较如下所示。

1. Language

Hive中可以执行插入/删除等操作,但是Pig没有发现有可以插入数据的方法;

2. Schemas

Hive中至少还有一个“表”的概念,但是Pig中基本没有表的概念,所谓的表建立在Pig Latin脚本中,更不用提metadata了;

2. Partitions

Pig中没有表的概念,所以说到分区对于Pig来说基本免谈,hive中有分区的概念;

3. Server

Hive可以依托于Thrift启动一个服务器,提供远程调用,Pig没有;

4. Shell 

Pig可以执行ls cat这样很经典的linux shell命令,但是在Hive中没有;

5. Web Interface

Hive有,Pig无;

6. JDBC/ODBC

Pig无,Hive有。

2         产品架构

        Pig5个主要的部分构成,如下所示:

1.Pig自己实现的一套框架对输入、输出的人机交互部分的实现,就是Pig Latin

2.ZebraPigHDFS/Hadoop的中间层、ZebraMapReduce作业编写的客户端,Zerbra用结构化的语言实现了对hadoop物理存储元数据的管理,也是对Hadoop的数据抽象层,在Zebra中有2个核心的类 TableStore()/TableLoad()Hadoop上的数据进行读写操作;

3.Pig中的Streaming主要分为4个组件:Pig Latin、逻辑层(Logical Layer)、物理层(Physical Layer)Streaming具体实现(Implementation)Streaming会创建一个Map/Reduce作业,并把它发送给合适的集群,同时监视这个作业的在集群环境中的整个执行过程;

4.MapReduce是每台机器上进行分布式计算的框架(算法)

5.HDFS最终存储数据的部分。

3         安装部署

        Hive最新版本是apache-hive-0.13.1-bin.tar.gz,下载地址为http://apache.fayea.com/apache-mirror/hive/hive-0.13.1/

    下载后,选个目录,解压,命令如下:

# tar -zxvf hive-0.10.0.tar.gz

4         Pig基本概念

    关系(relation)、包(bag)、元组(tuple)、字段(field)、数据(data)的关系

    一个关系(relation)是一个包(bag),更具体地说,是一个外部的包(outer bag)。

    一个包(bag)是一个元组(tuple)的集合。在pig中表示数据时,用大括号{}括起来的东西表示一个包——无论是在教程中的实例演示,还是在pig交互模式下的输出,都遵循这样的约定。

    一个元组(tuple)是若干字段(field)的一个有序集(ordered set)。在pig中表示数据时,用小括号()括起来的东西表示一个元组。

    一个字段是一块数据(data)。

    “元组”这个词很抽象,可以把它想像成关系型数据库表中的一行,它含有一个或多个字段,其中,每一个字段可以是任何数据类型,并且可以有或者没有数据。

    “关系”可以比喻成关系型数据库的一张表,而上面说了,“元组”可以比喻成数据表中的一行,在关系型数据库中,同一张表中的每一行都有固定的字段数,但pig中的“关系”与“元组”之间,“关系”并不要求每一个“元组”都含有相同数量的字段,并且也不会要求各“元组”中在相同位置处的字段具有相同的数据类型。

5         Pig操作符介绍

5.1  AVG求平均

    一个计算多维度组合下平均值的实际例子

    假设有数据文件:a.txt(各数值之间是以tab分隔的):

[root@localhost pig]$ cat a.txt

a 1 2 3 4.2 9.8

a 3 0 5 3.5 2.1

b 7 9 9 - -

a 7 9 9 2.6 6.2

a 1 2 5 7.7 5.9

a 1 2 3 1.4 0.2

    问题如下:怎样求出在第234列的所有组合的情况下,最后两列的平均值分别是多少?

    例如,第234列有一个组合为(123),即第一行和最后一行数据。对这个维度组合来说,最后两列的平均值分别为:

4.2+1.4/22.8

9.8+0.2/25.0

    而对于第234列的其他所有维度组合,都分别只有一行数据,因此最后两列的平均值其实就是它们自身。

    特别地,组合(799)有两行记录:第三、四行,但是第三行数据的最后两列没有值,因此它不应该被用于平均值的计算,也就是说,在计算平均值时,第三行是无效数据。所以(799)组合的最后两列的平均值为2.66.2

    现在用pig来算一下,并且输出最终的结果。

    先进入本地调试模式(pig -x local),再依次输入如下pig代码:

A = LOAD 'a.txt' AS (col1:chararray, col2:int, col3:int, col4:int, col5:double, col6:double);

B = GROUP A BY (col2, col3, col4);

C = FOREACH B GENERATE group, AVG(A.col5), AVG(A.col6);

DUMP C;

    pig输出结果如下:

((1,2,3),2.8,5.0)

((1,2,5),7.7,5.9)

((3,0,5),3.5,2.1)

((7,9,9),2.6,6.2)

    下面,依次来看看每一句pig代码分别得到了什么样的数据。

    ①加载a.txt文件,并指定每一列的数据类型分别为chararray(字符串),intintintdoubledouble。同时,给予每一列别名,分别为col1col2,……,col6。这个别名在后面的数据处理中会用到——如果你不指定别名,那么在后面的处理中,就只能使用索引($0$1,……)来标识相应的列了,这样可读性会变差,因此,在列固定的情况下,还是指定别名的好。

    将数据加载之后,保存到变量A中,A的数据结构如下:

A: {col1: chararray,col2: int,col3: int,col4: int,col5: double,col6: double}

    可见,A是用大括号括起来的东西。根据本文前面的说法,A是一个包(bag)。A与想像中的样子是一致的,也就是与前面打印出来的a.txt文件的内容是一样的,还是一行一行的类似于“二维表”的数据。

    ②按照A的第234列,对A进行分组。pig会找出所有第234列的组合,并按照升序进行排列,然后将它们与对应的包A整合起来,得到如下的数据结构:

B: {group: (col2: int,col3: int,col4: int),A: {col1: chararray,col2: int,col3: int,col4: int,col5: double,col6: double}}

    可见,A的第234列的组合被pig赋予了一个别名:group,同时B的每一行其实就是由一个group和若干个A组成的——注意,是若干个A。这里之所以只显示了一个A,是因为这里表示的是数据结构,而不表示具体数据有多少组。

    实际的数据为:

((1,2,3),{(a,1,2,3,4.2,9.8),(a,1,2,3,1.4,0.2)})

((1,2,5),{(a,1,2,5,7.7,5.9)})

((3,0,5),{(a,3,0,5,3.5,2.1)})

((7,9,9),{(b,7,9,9,,),(a,7,9,9,2.6,6.2)})

    可见,与前面所说的一样,组合(123)对应了两行数据,组合(799)也对应了两行数据。

    ③计算每一种组合下的最后两列的平均值。

    ③根据上面得到的B的数据,可以把B想像成一行一行的数据(只不过这些行不是对称的),FOREACH的作用是对B的每一行数据进行遍历,然后进行计算。

    GENERATE可以理解为要生成什么样的数据,这里的group就是上一步操作中B的第一项数据(即pigA的第234列的组合赋予的别名),所以它告诉了在数据集C的每一行里,第一项就是B中的group——类似于(125)这样的元组)。

    而AVG(A.col5)这样的计算,则是调用了pig的一个求平均值的函数AVG,用于对A的名为col5的列求平均值。在加载数据到A的时候,我们已经给每一列起了个别名,col5就是倒数第二列。

这里的A.col5,指的是B的每一行中的A,而不是包含全部数据的那个A。拿B的第一行来举例:

((1,2,3),{(a,1,2,3,4.2,9.8),(a,1,2,3,1.4,0.2)})

    遍历到B的这一行时,要计算AVG(A.col5)pig会找到(a,1,2,3,4.2,9.8)中的4.2,以及(a,1,2,3,1.4,0.2)中的1.4,加起来除以2,就得到了平均值。

    同理,我们也知道了AVG(A.col6)是怎么算出来的。但还有一点要注意的:对(7,9,9)这个组,它对应的数据(b,7,9,9,,)里最后两列是无值的,这是因为我们的数据文件对应位置上不是有效数字,而是两个“-”,pig在加载数据的时候自动将它置为空了,并且计算平均值的时候,也不会把这一组数据考虑在内(相当于忽略这组数据的存在)。

    所以C的数据结构是这样的:

C: {group: (col2: int,col3: int,col4: int),double,double}

    ④DUMP C就是将C中的数据输出到控制台。如果要输出到文件,需要使用:

STORE C INTO 'output';

    这样pig就会在当前目录下新建一个“output”目录(该目录必须事先不存在),并把结果文件放到该目录下。

如果要实现相同的功能,用JavaC++写一个Map-Reduce应用程序需要很长时间,仅仅写一个build.xml或者Makefile,所需的时间就是写这段pig代码的几十倍了!

正因为pig有如此优势,它才得到了广泛应用。

5.2  Count统计行数

    在SQL语句中,要统计表中数据的行数,很简单:

SELECT COUNT(*) FROM table_name WHERE condition

    在pig中,也有一个COUNT函数,与SQL不同,下面举例说明。

    假设要计算数据文件a.txt的行数:

[root@localhost pig]$ cat a.txt

a 1 2 3 4.2 9.8

a 3 0 5 3.5 2.1

b 7 9 9 - -

a 7 9 9 2.6 6.2

a 1 2 5 7.7 5.9

a 1 2 3 1.4 0.2

    正确的做法是:

A = LOAD 'a.txt' AS (col1:chararray, col2:int, col3:int, col4:int, col5:double, col6:double);

B = GROUP A ALL;

C = FOREACH B GENERATE COUNT(A.col2);

DUMP C;

输出结果:

(6)

表明有6行数据。

    在这个例子中,统计COUNT(A.col2)COUNT(A)的结果是一样的,但是,如果col2这一列中含有空值:

[root@localhost pig]$ cat a.txt

a 1 2 3 4.2 9.8

a   0 5 3.5 2.1

b 7 9 9 - -

a 7 9 9 2.6 6.2

a 1 2 5 7.7 5.9

a 1 2 3 1.4 0.2

    则以下pig程序及执行结果为:

grunt> A = LOAD 'a.txt' AS (col1:chararray, col2:int, col3:int, col4:int, col5:double, col6:double);

grunt> B = GROUP A ALL;

grunt> C = FOREACH B GENERATE COUNT(A.col2);

grunt> DUMP C;

(5)

    可见,结果为5行。那是因为你LOAD数据的时候指定了col2的数据类型为int,而a.txt的第二行数据是空的,因此数据加载到A以后,有一个字段就是空的:

grunt> DUMP A;

(a,1,2,3,4.2,9.8)

(a,,0,5,3.5,2.1)

(b,7,9,9,,)

(a,7,9,9,2.6,6.2)

(a,1,2,5,7.7,5.9)

(a,1,2,3,1.4,0.2)

    在COUNT的时候,null的字段不会被计入在内,所以结果是5

5.3  FLATTEN扁平操作

    从字面上看,flatten就是“弄平”的意思,下面通过一个具体实例了解flattenpig中的作用。

    还是采用前面的a.txt数据文件来说明:

[root@localhost pig]$ cat a.txt

a 1 2 3 4.2 9.8

a 3 0 5 3.5 2.1

b 7 9 9 - -

a 7 9 9 2.6 6.2

a 1 2 5 7.7 5.9

a 1 2 3 1.4 0.2

    如果按照前文的做法,计算多维度组合下的最后两列的平均值,则:

grunt> A = LOAD 'a.txt' AS (col1:chararray, col2:int, col3:int, col4:int, col5:double, col6:double);

grunt> B = GROUP A BY (col2, col3, col4);

grunt> C = FOREACH B GENERATE group, AVG(A.col5), AVG(A.col6);

grunt> DUMP C;

((1,2,3),2.8,5.0)

((1,2,5),7.7,5.9)

((3,0,5),3.5,2.1)

((7,9,9),2.6,6.2)

    可见,输出结果中,每一行的第一项是一个tuple(元组),来试试看FLATTEN的作用:

grunt> A = LOAD 'a.txt' AS (col1:chararray, col2:int, col3:int, col4:int, col5:double, col6:double);

grunt> B = GROUP A BY (col2, col3, col4);

grunt> C = FOREACH B GENERATE FLATTEN(group), AVG(A.col5), AVG(A.col6);

grunt> DUMP C;

(1,2,3,2.8,5.0)

(1,2,5,7.7,5.9)

(3,0,5,3.5,2.1)

(7,9,9,2.6,6.2)

    被FLATTENgroup本来是一个元组,现在变成了扁平的结构了。按照pig文档的说法,FLATTEN用于对元组(tuple)和包(bag)“解嵌套”(un-nest):

    在有的时候,不“解嵌套”的数据结构是不利于观察的,输出这样的数据可能不利于外围数程序的处理(例如,pig将数据输出到磁盘后,还需要用其他程序做后续处理,而对一个元组,输出的内容里是含括号的,这就在处理流程上又要多一道去括号的工序),因此,FLATTEN提供了一个在某些情况下可以清楚、方便地分析数据的机会。

5.4  GROUP分组操作

    用于GROUPkey如果多于一个字段(正如本文前面的例子),则GROUP之后的数据的key是一个元组(tuple),否则它就是与用于GROUPkey相同类型的东西。

    GROUP的结果是一个关系(relation),在这个关系中,每一组包含一个元组(tuple),这个元组包含两个字段:(1)第一个字段被命名为“group”——这一点非常容易与GROUP关键字相混淆,但请区分开来。该字段的类型与用于GROUPkey类型相同。(2)第二个字段是一个包(bag),它的类型与被GROUP的关系的类型相同。

用含有null的字段来GROUP,结果也会将null计入,不会忽略。

假设有数据文件 a.txt 内容为:

1 2 5

1   3

1 3

6 9 8

    其中,每两列数据之间是用tab分割的,第二行的第2列、第三行的第3列没有内容(也就是说,加载到Pig里之后,对应的数据会变成null),如果把这些数据按第1、第2列来GROUP的话,第12列中含有null的行会被忽略吗?

来做一下试验:

A = LOAD 'a.txt' AS (col1:int, col2:int, col3:int);

B = GROUP A BY (col1, col2);

DUMP B;

输出结果为:

((1,2),{(1,2,5)})

((1,3),{(1,3,)})

((1,),{(1,,3)})

((6,9),{(6,9,8)})

    从上面的结果(第三行)可见,原数据中第12列里含有null的行也被计入在内了,也就是说,GROUP操作是不会忽略null的,这与COUNT有所不同。

假设你有如下数据文件:

[root@localhost ~]# cat 3.txt

1 9

2 2

3 3

4 0

1 9

1 9

4 0

    现在要找出第12列的组合中,每一种的个数分别为多少,例如,(1,9)组合有3个,(4,0)组合有两个,依此类推。

    显而易见,只需要用GROUP就可以轻易完成这个任务。于是写出如下代码:

A = LOAD '3.txt' AS (col1: int, col2: int);

B = GROUP A ALL;

C = FOREACH B GENERATE group, COUNT(A);

DUMP C;

可惜,结果不是我们想要的:

(all,7)

我们的本意是按所有列来GROUP,于是使用了GROUP ALL,但是这实际上变成了统计行数,下面的代码就是一段标准的统计数据行数的代码:

A = LOAD '3.txt' AS (col1: int, col2: int);

B = GROUP A ALL;

C = FOREACH B GENERATE COUNT(A);

DUMP C;

因此,上面的 C = FOREACH B GENERATE group, COUNT(A) 也无非就是多打印了一个group的名字(all)而已——group的名字被设置为“all”,这是Pig帮你做的。

正确的做法很简单,只需要按所有字段GROUP,就可以了:

A = LOAD '3.txt' AS (col1: int, col2: int);

B = GROUP A BY (col1, col2);

C = FOREACH B GENERATE group, COUNT(A);

DUMP C;

结果如下:

((1,9),3)

((2,2),1)

((3,3),1)

((4,0),2)

这与前面分析的正确结果是一样的。

5.5  tuple加载

还是假设有如下数据:

[root@localhost pig]$ cat a.txt

a 1 2 3 4.2 9.8

a 3 0 5 3.5 2.1

b 7 9 9 - -

a 7 9 9 2.6 6.2

a 1 2 5 7.7 5.9

a 1 2 3 1.4 0.2

如果按照以下方式来加载数据:

A = LOAD 'a.txt' AS (col1:chararray, col2:int, col3:int, col4:int, col5:double, col6:double);

那么得到的A的数据结构为:

grunt> DESCRIBE A;

A: {col1: chararray,col2: int,col3: int,col4: int,col5: double,col6: double}

如果你要把A当作一个元组(tuple)来加载:

A = LOAD 'a.txt' AS (T : tuple (col1:chararray, col2:int, col3:int, col4:int, col5:double, col6:double));

也就是想要得到这样的数据结构:

grunt> DESCRIBE A;

A: {T: (col1: chararray,col2: int,col3: int,col4: int,col5: double,col6: double)}

那么,上面的方法将得到一个空的A

grunt> DUMP A;

()

()

()

()

()

()

那是因为数据文件a.txt的结构不适合于这样加载成元组(tuple)。

如果有数据文件b.txt

[root@localhost pig]$ cat b.txt

(a,1,2,3,4.2,9.8)

(a,3,0,5,3.5,2.1)

(b,7,9,9,-,-)

(a,7,9,9,2.6,6.2)

(a,1,2,5,7.7,5.9)

(a,1,2,3,1.4,0.2)

则使用上面所说的加载方法及结果为:

grunt> A = LOAD 'b.txt' AS (T : tuple (col1:chararray, col2:int, col3:int, col4:int, col5:double, col6:double));

grunt> DUMP A;

((a,1,2,3,4.2,9.8))

((a,3,0,5,3.5,2.1))

((b,7,9,9,,))

((a,7,9,9,2.6,6.2))

((a,1,2,5,7.7,5.9))

((a,1,2,3,1.4,0.2))

可见,加载的数据的结构确实被定义成了元组(tuple)。

5.6  DISTINCT去重

在多维度组合下,如何计算某个维度组合里的不重复记录的条数

以数据文件 c.txt 为例:

[root@localhost pig]$ cat c.txt

a 1 2 3 4.2 9.8 100

a 3 0 5 3.5 2.1 200

b 7 9 9 - - 300

a 7 9 9 2.6 6.2 300

a 1 2 5 7.7 5.9 200

a 1 2 3 1.4 0.2 500

问题:如何计算在第234列的所有维度组合下,最后一列不重复的记录分别有多少条?例如,第234列有一个维度组合是(123),在这个维度维度下,最后一列有两种值:100 500,因此不重复的记录数为2。同理可求得其他的记录条数。

pig代码及输出结果如下:

grunt> A = LOAD 'c.txt' AS (col1:chararray, col2:int, col3:int, col4:int, col5:double, col6:double, col7:int);

grunt> B = GROUP A BY (col2, col3, col4);

grunt> C = FOREACH B {D = DISTINCT A.col7; GENERATE group, COUNT(D);};

grunt> DUMP C;

((1,2,3),2)

((1,2,5),1)

((3,0,5),1)

((7,9,9),1)

来看看每一步分别生成了什么样的数据:

LOAD不用说了,就是加载数据;

GROUP也不用说了,和前文所说的一样。GROUP之后得到了这样的数据:

grunt> DUMP B;

((1,2,3),{(a,1,2,3,4.2,9.8,100),(a,1,2,3,1.4,0.2,500)})

((1,2,5),{(a,1,2,5,7.7,5.9,200)})

((3,0,5),{(a,3,0,5,3.5,2.1,200)})

((7,9,9),{(b,7,9,9,,,300),(a,7,9,9,2.6,6.2,300)})

其实到这里,我们肉眼就可以看出来最后要求的结果是什么了,当然,必须要由pig代码来完成,要不然怎么应对海量数据?

③这里的FOREACH与前面有点不一样,这就是所谓的“嵌套的FOREACH”。

然后再解释一下:FOREACH是对B的每一行进行遍历,其中,B的每一行里含有一个包(bag),每一个包中含有若干元组(tupleA,因此,FOREACH 后面的大括号里的操作,其实是对所谓的“内部包”(inner bag)的操作(详情请参看FOREACH的说明),在这里,指定了对Acol7这一列进行去重,去重的结果被命名为D,然后再对D计数(COUNT),就得到了我们想要的结果。

④输出结果数据,与前文所述的差不多。

这样就达成了目的。

另外,DISTINCT操作用于去重,正因为它要把数据集合到一起,才知道哪些数据是重复的,因此,它会产生reduce过程。同时,在map阶段,它也会利用combiner来先去除一部分重复数据以加快处理速度。

5.7  STREAM操作

pig中可以嵌套使用shell进行辅助处理,下面,就以一个实际的例子来说明。

假设在某一步pig处理后,得到了类似于下面 b.txt 中的数据:

[root@localhost pig]$ cat b.txt

1 5 98  = 7

34  8 6 3 2

62  0 6 = 65

问题:如何将数据中第4列中的“=”符号全部替换为9999

pig代码及输出结果如下:

grunt> A = LOAD 'b.txt' AS (col1:int, col2:int, col3:int, col4:chararray, col5:int);

grunt> B = STREAM A THROUGH `awk '{if($4 == "=") print $1"\t"$2"\t"$3"\t9999\t"$5; else print $0}'`;

grunt> DUMP B;

(1,5,98,9999,7)

(34,8,6,3,2)

(62,0,6,9999,65)

来看看这段代码是如何做到的:

①加载数据。

②通过“STREAM THROUGH …”的方式,可以调用一个shell语句,用该shell语句对A的每一行数据进行处理。此处的shell逻辑为:当某一行数据的第4列为“=”符号时,将其替换为“9999”;否则就照原样输出这一行。

③输出B,可见结果正确。

如何统计一个字符串中包含的指定字符数?这可以不算是个Pig的问题了,可以把它认为是一个shell的问题。从本文前面部分我们已经知道,Pig中可以用 STREAM ... THROUGH 来调用shell进行辅助数据处理。

假设有文本文件:

[root@localhost ~]$ cat 1.txt

123 abcdef:243789174

456 DFJKSDFJ:3646:555558888

789 yKDSF:00000%0999:2343324:11111:33333

现在要统计:每一行中,第二列里所包含的冒号(“:”)分别为多少?代码如下:

A = LOAD '1.txt' AS (col1: chararray, col2: chararray);

B = STREAM A THROUGH `awk -F":" '{print NF-1}'` AS (colon_count: int);

DUMP B;

结果为:

(1)

(2)

(4)

5.8  传入参数

假设pig脚本输出的文件是通过外部参数指定的,则此参数不能写死,需要传入。在pig中,使用传入的参数如下所示:

STORE A INTO '$output_dir';

则这个“output_dir”就是个传入的参数。在调用这个pig脚本的shell脚本中,可以这样传入参数:

pig -param output_dir="/home/my_ourput_dir/" my_pig_script.pig

这里传入的参数“output_dir”的值为“/home/my_output_dir/”。

5.9  COGROUP操作

GROUP操作符一样,COGROUP也是用来分组的,不同的是,COGROUP可以按多个关系中的字段进行分组。

还是以一个实例来说明,假设有以下两个数据文件:

[root@localhost pig]$ cat a.txt

uidk  12  3

hfd 132 99

bbN 463 231

UFD 13  10

[root@localhost pig]$ cat b.txt

908 uidk  888

345 hfd 557

28790 re  00000

现在用pig做如下操作及得到的结果为:

grunt> A = LOAD 'a.txt' AS (acol1:chararray, acol2:int, acol3:int);

grunt> B = LOAD 'b.txt' AS (bcol1:int, bcol2:chararray, bcol3:int);

grunt> C = COGROUP A BY acol1, B BY bcol2;

grunt> DUMP C;

(re,{},{(28790,re,0)})

(UFD,{(UFD,13,10)},{})

(bbN,{(bbN,463,231)},{})

(hfd,{(hfd,132,99)},{(345,hfd,557)})

(uidk,{(uidk,12,3)},{(908,uidk,888)})

每一行输出的第一项都是分组的key,第二项和第三项分别都是一个包(bag),其中,第二项是根据前面的key找到的A中的数据包,第三项是根据前面的key找到的B中的数据包。

来看看第一行输出:“re”作为groupkey时,其找不到对应的A中的数据,因此第二项就是一个空的包“{}”,“re”这个keyB中找到了对应的数据(28790    re    00000),因此第三项就是包{(28790,re,0)}

其他输出数据也类似。

5.10           统计组合

假设有如下数据:

[root@localhost]# cat a.txt

1 3 4 7

1 3 5 4

2 7 0 5

9 8 6 6

现在我们要统计第12列的不同组合有多少种,对本例来说,组合有三种:

1 3

2 7

9 8

也就是说我们要的答案是3

先写出全部的Pig代码:

A = LOAD 'a.txt' AS (col1:int, col2:int, col3:int, col4:int);

B = GROUP A BY (col1, col2);

C = GROUP B ALL;

D = FOREACH C GENERATE COUNT(B);

DUMP D;

然后再来看看这些代码是如何计算出上面的结果的:

①第一行代码加载数据,没什么好说的。

②第二行代码,得到第12列数据的所有组合。B的数据结构为:

grunt> DESCRIBE B;

B: {group: (col1: int,col2: int),A: {col1: int,col2: int,col3: int,col4: int}}

B DUMP出来,得到:

((1,3),{(1,3,4,7),(1,3,5,4)})

((2,7),{(2,7,0,5)})

((9,8),{(9,8,6,6)})

非常明显,(1,3)(2,7)(9,8)的所有组合已经被排列出来了,这里得到了若干行数据。下一步要做的是统计这样的数据一共有多少行,也就得到了第12列的组合有多少组。

③第三和第四行代码,就实现了统计数据行数的功能。

这里需要特别说明的是:

a)为什么倒数第二句代码中是COUNT(B),而不是COUNT(group)

我们是对C进行FOREACH,所以要先看看C的数据结构:

grunt> DESCRIBE C;

C: {group: chararray,B: {group: (col1: int,col2: int),A: {col1: int,col2: int,col3: int,col4: int}}}

可见,可以把C想像成一个map的结构,key是一个groupvalue是一个包(bag),它的名字是B,这个包中有N个元素,每一个元素都对应到②中所说的一行。根据②的分析,我们就是要统计B中元素的个数,因此,这里是COUNT(B)

b)COUNT函数的作用是统计一个包(bag)中的元素的个数:

COUNT

Computes the number of elements in a bag.

C的数据结构看,B是一个bag,所以COUNT函数是可以用于它的。

如果你试图把COUNT应用于一个非bag的数据结构上,会发生错误,例如:

java.lang.ClassCastException: org.apache.pig.data.BinSedesTuple cannot be cast to org.apache.pig.data.DataBag

这是把Tuple传给COUNT函数时发生的错误。

5.11           强制类型转换

假设有int a = 3 int b = 2两个数,在大多数编程语言里,a/b得到的是1,想得到正确结果1.5的话,需要转换为float再计算。在Pig中其实和这种情况一样,下面就拿几行数据来做个实验:

[root@localhost ~]# cat a.txt

3 2

4 5

Pig中:

grunt> A = LOAD 'a.txt' AS (col1:int, col2:int);                 

grunt> B = FOREACH A GENERATE col1/col2;

grunt> DUMP B;

(1)

(0)

可见,不加类型转换的计算结果是取整之后的值。

那么,转换一下试试:

grunt> A = LOAD 'a.txt' AS (col1:int, col2:int);

grunt> B = FOREACH A GENERATE (float)(col1/col2);

grunt> DUMP B;

(1.0)

(0.0)

这样转换还是不行的,这与大多数编程语言的结果一致——它只是把取整之后的数再转换为浮点数,因此当然不行。

grunt> A = LOAD 'a.txt' AS (col1:int, col2:int);

grunt> B = FOREACH A GENERATE (float)col1/col2; 

grunt> DUMP B;

(1.5)

(0.8)

或者这样也行:

grunt> A = LOAD 'a.txt' AS (col1:int, col2:int);

grunt> B = FOREACH A GENERATE col1/(float)col2;      

grunt> DUMP B;

(1.5)

(0.8)

因此,在pig做除法运算的时候,需要注意这一点。

5.12           UNION操作

假设有两个数据文件为:

[root@localhost ~]# cat 1.txt

0 3

1 5

0 8

 

[root@localhost ~]# cat 2.txt

1 6

0 9

现在要求出:在第一列相同的情况下,第二列的和分别为多少?

例如,第一列为 1 的时候,第二列有56两个值,和为11。同理,第一列为0的时候,第二列的和为 3+8+9=20

计算此问题的Pig代码如下:

A = LOAD '1.txt' AS (a: int, b: int);

B = LOAD '2.txt' AS (c: int, d: int);

C = UNION A, B;

D = GROUP C BY $0;

E = FOREACH D GENERATE FLATTEN(group), SUM(C.$1);

DUMP E;

输出为:

(0,20)

(1,11)

我们来看看每一步分别做了什么:

①第1行、第2行代码分别加载数据到关系AB中,没什么好说的。

②第3行代码,将关系AB合并起来了。合并后的数据结构为:

grunt> DESCRIBE C;

C: {a: int,b: int}

其数据为:

grunt> DUMP C;

(0,3)

(1,5)

(0,8)

(1,6)

(0,9)

③第4行代码按第1列(即$0)进行分组,分组后的数据结构为:

grunt> DESCRIBE D;

D: {group: int,C: {a: int,b: int}}

其数据为:

grunt> DUMP D;

(0,{(0,9),(0,3),(0,8)})

(1,{(1,5),(1,6)})

④最后一行代码,遍历D,将D中每一行里的所有bag(C)的第2($1)进行累加,就得到了想要的结果。

5.13           正则表达式

下面介绍在Pig中使用正则表达式对字符串进行匹配的方法:

假设你有如下数据文件:

[root@localhost ~]# cat a.txt

1 http://ui.qq.com/abcd.html

5 http://tr.qq.com/743.html

8 http://vid.163.com/trees.php

9 http:auto.qq.com/us.php

现在要找出该文件中,第二列符合“*//*.qq.com/*”模式的所有行(此处只有前两行符合条件),怎么做?

Pig代码如下:

A = LOAD 'a.txt' AS (col1: int, col2: chararray);

B = FILTER A BY col2 matches '.*//.*\\.qq\\.com/.*'; 

DUMP B;

matches关键字对 col2 进行了正则匹配,它使用的是Java格式的正则表达式匹配规则。

.表示任意字符,*表示字符出现任意次数;\..进行了转义,表示匹配.这个字符;/就是表示匹配/这个字符。

这里需要注意的是,在引号中,用于转义的字符\需要打两个才能表示一个,所以上面的\\.就是与正则中的\.是一样的,即匹配 . 这个字符。所以,如果你要匹配数字的话,应该用这种写法(\d表示匹配数字,在引号中必须用\\d):

B = FILTER A BY (col matches '\\d.*');

(1,http://ui.qq.com/abcd.html)

(5,http://tr.qq.com/743.html)

可见结果是正确的。

5.14           SUBSTRING操作

在处理数据时,如果你想提取出一个日期字符串的年份,例如提取出“2011-10-26”中的“2011”,可以用内置函数 SUBSTRING 来实现:

SUBSTRING

Returns a substring from a given string.

Syntax

SUBSTRING(string, startIndex, stopIndex)

下面举一个例子。假设有数据文件:

[root@localhost ~]# cat a.txt

2010-05-06  abc

2008-06-18  uio

2011-10-11  tyr

2010-12-23  fgh

2011-01-05  vbn

第一列是日期,现在要找出所有不重复的年份有哪些,可以这样做:

A = LOAD 'a.txt' AS (dateStr: chararray, flag: chararray);

B = FOREACH A GENERATE SUBSTRING(dateStr, 0, 4);

C = DISTINCT B;

DUMP C;

输出结果为:

(2008)

(2010)

(2011)

可见达到了想要的效果。

上面的代码太简单了,不必多言,唯一需要说明一下的是 SUBSTRING 函数,它的第一个参数是要截取的字符串,第二个参数是起始索引(从0开始),第三个参数是结束索引。

5.15           CONCAT操作

假设有以下数据文件:

[root@localhost ~]# cat 1.txt

abc 123

cde 456

fgh 789

ijk 200

现在要把第一列和第二列作为字符串拼接起来,例如第一行会变成“abc123”,那么使用CONCAT这个求值函数(eval function)就可以做到:

A = LOAD '1.txt' AS (col1: chararray, col2: int);

B = FOREACH A GENERATE CONCAT(col1, (chararray)col2);

DUMP B;

输出结果为:

(abc123)

(cde456)

(fgh789)

(ijk200)

注意这里故意在加载数据的时候把第二列指定为int类型,这是为了说明数据类型不一致的时候CONCAT会出错:

ERROR org.apache.pig.tools.grunt.Grunt - ERROR 1045: Could not infer the matching function for org.apache.pig.builtin.CONCAT as multiple or none of them fit. Please use an explicit cast.

所以在后面CONCAT的时候,对第二列进行了类型转换。

另外,如果数据文件内容为:

[root@localhost ~]# cat 1.txt

5 123

7 456

8 789

0 200

那么,如果对两列整数CONCAT

A = LOAD '1.txt' AS (col1: int, col2: int);

B = FOREACH A GENERATE CONCAT(col1, col2);

同样也会出错:

ERROR org.apache.pig.tools.grunt.Grunt - ERROR 1045: Could not infer the matching function for org.apache.pig.builtin.CONCAT as multiple or none of them fit. Please use an explicit cast.

要拼接几个字符串用CONCAT CONCAT 就可以了。

5.16           JOIN操作

假设有以下两个数据文件:

[root@localhost ~]# cat 1.txt

123

456

789

200

以及:

[root@localhost ~]# cat 2.txt

200

333

789

现在要找出两个文件中,相同数据的行数,也就是所谓的求两个数据集的重合。

用关系操作符JOIN,可以达到这个目的。在处理海量数据时,经常会有求重合的需求。所以JOINPig中一个极其重要的操作。

在本例中,两个文件中有两个相同的数据行:789以及200,因此,结果应该是2

我们先来看看正确的代码:

A = LOAD '1.txt' AS (a: int);  

B = LOAD '2.txt' AS (b: int);

C = JOIN A BY a, B BY b;

D = GROUP C ALL;

E = FOREACH D GENERATE COUNT(C);

DUMP E;

①第一、二行是加载数据。

②第三行按A的第1列、B的第二列进行“结合”,JOIN之后,ab两列不相同的数据就被剔除掉了。C的数据结构为:

C: {A::a: int,B::b: int}

C的数据为:

(200,200)

(789,789)

③由于我们要统计的是数据行数,所以上面的Pig代码中的第45行就进行了计数的运算。

④如果文件 2.txt 多一行数据“200”,结果为3行。这个时候C的数据为:

(200,200)

(200,200)

(789,789)

所以如果你要去除重复的,还需要用DISTINCEC处理一下:

A = LOAD '1.txt' AS (a: int);

B = LOAD '2.txt' AS (b: int);

C = JOIN A BY a, B BY b;

uniq_C = DISTINCT C;

D = GROUP uniq_C ALL;

E = FOREACH D GENERATE COUNT(uniq_C);

DUMP E;

这样得到的结果就是2

尤其需要注意的是,如果JOIN的两列具有不同的数据类型,是会失败的。例如以下代码:

A = LOAD '1.txt' AS (a: int);  

B = LOAD '2.txt' AS (b: chararray);

C = JOIN A BY a, B BY b;

D = GROUP C ALL;

E = FOREACH D GENERATE COUNT(C);

DUMP E;

在语法上是没有错误的,但是一运行就会报错:

ERROR org.apache.pig.tools.grunt.Grunt - ERROR 1107: Cannot merge join keys, incompatible types

这是因为ab具有不同的类型:intchararray

不能对同一个关系(relation)进行JOIN,如下所示:

假设有如下文件:

[root@localhost ~]# cat 1.txt

1 a

2 e

3 v

4 n

我想对第一列这样JOIN

A = LOAD '1.txt' AS (col1: int, col2: chararray);

B = JOIN A BY col1, A BY col1;

那么当你试图 DUMP B 的时候,会报如下的错:

ERROR org.apache.pig.tools.grunt.Grunt - ERROR 1108: Duplicate schema alias: A::col1 in "B"

这是因为Pig会弄不清JOIN之后的字段名——两个字段均为A::col1,使得一个关系(relation)中出现了重复的名字,这是不允许的。

要解决这个问题,只需将数据LOAD两次,并且给它们起不同的名字就可以了:

grunt> A = LOAD '1.txt' AS (col1: int, col2: chararray);

grunt> B = LOAD '1.txt' AS (col1: int, col2: chararray);

grunt> C = JOIN A BY col1, B BY col1;                  

grunt> DESCRIBE C;

C: {A::col1: int,A::col2: chararray,B::col1: int,B::col2: chararray}

grunt> DUMP C;

(1,a,1,a)

(2,e,2,e)

(3,v,3,v)

(4,n,4,n)

从上面Cschema,可以看出来,如果对同一个关系A的第一列进行JOIN,会导致schema中出现相同的字段名,所以当然会出错。

初次使用JOIN时,一般人使用的都是所谓的“内部的JOIN(inner JOIN),也即类似于 C = JOIN A BY col1, B BY col2 这样的JOINPig也支持“外部的JOIN(outer JOIN),下面就举一个例子。

假设有文件:

[root@localhost ~]# cat 1.txt

1 a

2 e

3 v

4 n

以及:

[root@localhost ~]# cat 2.txt

9 a

2 e

3 v

0 n

现在来对这两个文件的第一列作一个outer JOIN

grunt> A = LOAD '1.txt' AS (col1: int, col2: chararray);

grunt> B = LOAD '2.txt' AS (col1: int, col2: chararray);

grunt> C = JOIN A BY col1 LEFT OUTER, B BY col1;

grunt> DESCRIBE C;

C: {A::col1: int,A::col2: chararray,B::col1: int,B::col2: chararray}

grunt> DUMP C;

(1,a,,)

(2,e,2,e)

(3,v,3,v)

(4,n,,)

outer JOIN中,“OUTER”关键字是可以省略的。从上面的结果,可以看到:如果换成一个inner JOIN,则两个输入文件的第一、第四行都不会出现在结果中(因为它们的第一列不相同),而在LEFT OUTER JOIN中,文件1.txt的第一、四行却被输出了,所以这就是LEFT OUTER JOIN的特点:对左边的记录来说,即使它与右边的记录不匹配,它也会被包含在输出数据中。

同理可知RIGHT OUTER JOIN的功能——把上面的 LEFT 换成 RIGHT,结果如下:

(,,0,n)

(2,e,2,e)

(3,v,3,v)

(,,9,a)

可见,与左边的记录不匹配的右边的记录被保存了下来,而左边的记录没有保存下来(两个逗号表明其为空),这就是RIGHT OUTER JOIN的效果,与预期的一样。

关于OUTERJOIN的用处,举一个例子:可以用来求“不在某数据集中的那些数据(即:不重合的数据)”。还是以上面的两个数据文件为例,现在我要求出 1.txt 中,第一列不在 2.txt 中的第一列的那些记录,14这两个数字在 2.txt 的第一列里没有出现,而23出现了,因此,我们要找的记录就是:

1 a

4 n

要实现这个效果,Pig代码及结果为:

grunt> A = LOAD '1.txt' AS (col1: int, col2: chararray);

grunt> B = LOAD '2.txt' AS (col1: int, col2: chararray);

grunt> C = JOIN A BY col1 LEFT OUTER, B BY col1;       

grunt> DESCRIBE C;                

C: {A::col1: int,A::col2: chararray,B::col1: int,B::col2: chararray}

grunt> D = FILTER C BY (B::col1 is null);

grunt> E = FOREACH D GENERATE A::col1 AS col1, A::col2 AS col2;

grunt> DUMP E;

(1,a)

(4,n)

可见,确实找出了“不重合的记录”。在作海量数据分析时,这种功能是极为有用的。

最后来一个总结:

假设有两个数据集(在1.txt2.txt中),分别都只有1列,则如下代码:

A = LOAD '1.txt' AS (col1: chararray);

B = LOAD '2.txt' AS (col1: chararray); 

C = JOIN A BY col1 LEFT OUTER, B BY col1;

D = FILTER C BY (B::col1 is null);

E = FOREACH D GENERATE A::col1 AS col1;                

DUMP E;

计算结果为:在A中,但不在B中的记录。

5.17           三目运算符

使用三目运算符“ ? : ”必须加括号。

假设有以下数据文件:

[root@localhost ~]# cat a.txt

5 8 9

6   0

4 3 1

其中,第二行的第二列数据是有缺失的,因此,加载数据之后,它会成为null。顺便废话一句,在处理海量数据时,数据有缺失是经常遇到的现象。

现在,如果要把所有缺失的数据填为 -1 可以使用三目运算符来操作:

A = LOAD 'a.txt' AS (col1:int, col2:int, col3:int);

B = FOREACH A GENERATE col1, ((col2 is null)? -1 : col2), col3;

DUMP B;

输出结果为:

(5,8,9)

(6,-1,0)

(4,3,1)

((col2 is null)? -1 : col2) 的含义不用解释你也知道,就是当col2null的时候将其置为-1,否则就保持原来的值,但是注意,它最外面是用括号括起来的,如果去掉括号,写成 (col2 is null)? -1 : col2,那么就会有语法错误:

ERROR org.apache.pig.tools.grunt.Grunt - ERROR 1000: Error during parsing. Encountered " "is" "is "" at line 1, column 36.

Was expecting one of (后面省略)

错误提示有点不直观。所以,有时候使用三目运算符是必须要使用括号的。

5.18           补上缺失的数据

数据文件如下:

[root@localhost ~]# cat 1.txt

1 (4,9)

5

8 (3,0)

5 (9,2)

6

这些数据的布局比较怪,要把它加载成什么样的schema呢?答:第一列为一个int,第二列为一个tuple,此tuple又含两个int,并且有几行第二列数据是有缺失的。

问题:怎样求在第一列数据相同的情况下,第二列数据中的第一个整数的和分别为多少?

例如,第一列为1的数据只有一行(即第一行),因此,第二列的第一个整数的和就是4

但是对最后一行,也就是第一列为6时,由于其第二列数据缺失,我们希望它输出的结果是0

先来看看Pig代码:

A = LOAD '1.txt' AS (a:int, b:tuple(x:int, y:int));

B = FOREACH A GENERATE a, FLATTEN(b);

C = GROUP B BY a;

D = FOREACH C GENERATE group, SUM(B.x);

DUMP D;

结果为:

(1,4)

(5,9)

(6,)

(8,3)

(59) 这一行是由数据文件 1.txt 的第 24行计算得到的,其中,第2行数据有缺失,但这并不影响求和计算,因为另一行数据没有缺失。你可以这样想:一个包(bag)中有多个数,当其中一个为null,而其他不为null时,把它们相加会自动忽略null

然而,第三行 (6,) 是不是太刺眼了?没错,因为数据文件 1.txt 的最后一行缺失了第二列,所以,在 SUM(B.x) 中的 B.x null就会导致计算结果为null,从而什么也输出不了。

这就与我们期望的输出有点不同了。我们希望这种缺失的数据不要空着,而是输出0

想法1

D = FOREACH C GENERATE group, ((IsEmpty(B.x)) ? 0 : SUM(B.x));

输出结果为:

(1,4)

(5,9)

(6,)

(8,3)

可见行不通。从这个结果我们知道,IsEmpty(B.x) false,即B.x不是empty的,所以不能这样做。

想法2

D = FOREACH C GENERATE group, ((B.x is null) ? 0 : SUM(B.x));

输出结果还是与上面一样!仍然行不通。这更奇怪了:B.x既非empty,也非null,那么它是什么情况?按照我的理解,当group6时,它应该是一个非空的包(bag),里面有一个null的东西,所以,这个包不是empty的,它也非null。我不知道这样理解是否正确,但是它看上去就像是这样的。

想法3

D = FOREACH C GENERATE group, SUM(B.x) AS s;

E = FOREACH D GENERATE group, ((s is null) ? -1 : s);

DUMP E;

输出结果为:

(1,4)

(5,9)

(6,-1)

(8,3)

可见达到了我们想要的结果。这与本文前面部分的做法是一致的,即:先得到含null的结果,再把这个结果中的null替换为指定的值。

5.19           Scalars projections

Scalars can be only used with projections”错误的原因

在这里,用一个简单的例子给大家用演示一下产生这个错误的原因之一。

假设有如下数据文件:

[root@localhost ~]$ cat 1.txt

a 1

b 8

c 3

c 3

d 6

d 3

c 5

e 7

现在要统计:在第1列的每一种组合下,第二列为36的数据分别有多少条?

例如,当第1列为 c 时,第二列为3的数据有2条,为6的数据有0条;当第1列为d时,第二列为3的数据有1条,为6的数据有1条。其他的依此类推。

Pig代码如下:

A = LOAD '1.txt' AS (col1:chararray, col2:int);

B = GROUP A BY col1;

C = FOREACH B {

  D = FILTER A BY col2 == 3;

  E = FILTER A BY col2 == 6;

  GENERATE group, COUNT(D), COUNT(E);

};

DUMP C;

输出结果为:

(a,0,0)

(b,0,0)

(c,2,0)

(d,1,1)

(e,0,0)

可见结果是正确的。

那么,如果我在上面的代码中,把“D = FILTER A BY col2 == 3”不小心写成了“D = FILTER B BY col2 == 3”,就肯定会得到“Scalars can be only used with projections”的错误提示。

嵌套的(nestedFOREACH和内部的(innerFOREACH是一个意思,正如上面所示,一个FOREACH可以对每一条记录施以多种不同的关系操作,然后再GENERATE得到想要的结果,这就是嵌套的/内部的FOREACH

5.20           Pig中使用中文字符串

如何在Pig中使用中文作为FILTER的条件?

数据文件 data.txt 内容为(每一列之间以TAB为分隔符):

1 北京市 a

2 上海市 b

3 北京市 c

4 北京市 f

5 天津市 e

Pig脚本文件 test.pig 内容为:

A = LOAD 'data.txt' AS (col1: int, col2: chararray, col3: chararray);

B = FILTER A BY (col2 == '北京市');

DUMP B;

首先,这两个文件的编码都是UTF-8(BOM),在Linux命令行下,直接以本地模式执行Pig脚本 test.pig

pig -x local test.pig

得到的输出结果为:

(1,北京市,a)

(3,北京市,c)

(4,北京市,f)

可见结果是正确的。

但是,如果在grunt交互模式下,把 test.pig 的内容粘贴进去执行,是得不到任何输出结果的:

grunt> A = LOAD 'data.txt' AS (col1: int, col2: chararray, col3: chararray);

grunt> B = FILTER A BY (col2 == '北京市');

grunt> DUMP B;

可以使用中文作为FILTER的条件,只要不在交互模式下执行你的Pig脚本即可。

5.21           其他操作

1. 要将Pig job的优先级设为HIGH,只需在Pig脚本的开头加上一句:

set job.priority HIGH;

即可将Pig job的优先级设为高了。

2. 设置Pig jobjob name

Pig脚本开头加上一句:

set job.name 'My-Job-Name';

那么,执行该Pig脚本之后,在HadoopJob Tracker中看到的“Name”就是“My-Job-Name”了。

如果不设置,显示的name是类似于“Job6245768625829738970.jar”这样的东西,job多的时候完全没有标识度,建议一定要设置一个特殊的job name

3. UDF是区分大小写的

因为UDF是由Java类来实现的,所以区分大小写,就这么简单。

4. Pig中的下面operator(操作符)会触发reduce过程:

GROUP:由于GROUP操作会将所有具有相同key的记录收集到一起,所以数据如果正在map中处理的话,就会触发shufflereduce的过程。

ORDER:由于需要将所有相等的记录收集到一起(才能排序),所以ORDER会触发reduce过程。同时,除了那个Pig job之外,Pig还会添加一个额外的M-R job到数据流程中,因为Pig需要对数据集做采样,以确定数据的分布情况,从而解决数据分布严重不均的情况下job效率过于低下的问题。

DISTINCT:由于需要将记录收集到一起,才能确定它们是不是重复的,因此DISTINCT会触发reduce过程。当然,DISTINCT也会利用combinermap阶段就把重复的记录移除。

JOINJOIN用于求重合,由于求重合的时候,需要将具有相同key的记录收集到一起,因此,JOIN会触发reduce过程。

LIMIT:由于需要将记录收集到一起,才能统计出它返回的条数,因此,LIMIT会触发reduce过程。

COGROUP:与GROUP类似(参看本文前面的部分),因此它会触发reduce过程。

CROSS:计算两个或多个关系的叉积。

6         Pig问题

6.1  Hadoop 2.x.0  yarn配置问题

master上运行Mapreduce没有问题,但是在slave节点上运行会报如下错误:

[root@fk01 mapreduce]# hadoop jar hadoop-mapreduce-examples-2.2.0.jar

wordcount /input /ouput3 

14/08/21 10:41:18 WARN util.NativeCodeLoader: Unable to load native-

hadoop library for your platform... using builtin-java classes where

applicable 

14/08/21 10:41:18 INFO client.RMProxy: Connecting to ResourceManager at

/0.0.0.0:8032 

14/08/21 10:41:19 INFO ipc.Client: Retrying connect to server:

0.0.0.0/0.0.0.0:8032. Already tried 0 time(s); retry policy is

RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 

14/08/21 10:41:20 INFO ipc.Client: Retrying connect to server:

0.0.0.0/0.0.0.0:8032. Already tried 1 time(s); retry policy is

RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 

14/08/21 10:41:21 INFO ipc.Client: Retrying connect to server:

0.0.0.0/0.0.0.0:8032. Already tried 2 time(s); retry policy is

RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 

14/08/21 10:41:22 INFO ipc.Client: Retrying connect to server:

0.0.0.0/0.0.0.0:8032. Already tried 3 time(s); retry policy is

RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 

14/08/21 10:41:23 INFO ipc.Client: Retrying connect to server:

0.0.0.0/0.0.0.0:8032. Already tried 4 time(s); retry policy is

RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 

14/08/21 10:41:24 INFO ipc.Client: Retrying connect to server:

0.0.0.0/0.0.0.0:8032. Already tried 5 time(s); retry policy is

RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 

14/08/21 10:41:25 INFO ipc.Client: Retrying connect to server:

0.0.0.0/0.0.0.0:8032. Already tried 6 time(s); retry policy is

RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 

......................

解决办法为在yare-site.xml里添加如下信息:

<property>

    <name>yarn.resourcemanager.address</name> 

    <value>master:8032</value> 

</property>

<property>

    <name>yarn.resourcemanager.scheduler.address</name> 

    <value>master:8030</value> 

</property>

<property>

    <name>yarn.resourcemanager.resource-tracker.address</name> 

    <value>master:8031</value> 

</property>

6.2  版本不兼容问题

Hadoop2.x.0pig0.13.0运行过程中,hadooppig grunt均运行正常但是dump数据报下面的错误:

ERROR 1066: Unable to open iterator for alias actor

org.apache.pig.impl.logicalLayer.FrontendException: ERROR 1066: Unable to open iterator for alias actor

    at org.apache.pig.PigServer.openIterator(PigServer.java:880)

    at org.apache.pig.tools.grunt.GruntParser.processDump(GruntParser.java:774)

    at org.apache.pig.tools.pigscript.parser.PigScriptParser.parse(PigScriptParser.java:372)

    at org.apache.pig.tools.grunt.GruntParser.parseStopOnError(GruntParser.java:198)

    at org.apache.pig.tools.grunt.GruntParser.parseStopOnError(GruntParser.java:173)

    at org.apache.pig.tools.grunt.Grunt.run(Grunt.java:69)

    at org.apache.pig.Main.run(Main.java:541)

    at org.apache.pig.Main.main(Main.java:156)

    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)

    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)

    at java.lang.reflect.Method.invoke(Method.java:606)

    at org.apache.hadoop.util.RunJar.main(RunJar.java:212)

Caused by: java.io.IOException: Job terminated with anomalous status FAILED

    at org.apache.pig.PigServer.openIterator(PigServer.java:872)

    ... 12 more

导致问题出现的原因是pig已经编译的jar文件和hadoop的版本不兼容导致的,可以采用重新编译的方法解决问题,如下所示:

(1) cd /${PIG_HOME}

(2) mv pig-0.10.1-withouthadoop.jar pig-0.10.1-withouthadoop.jar.bak

(3) mv pig-0.10.1.jar pig-0.10.1.jar.bak

(4) ant clean jar-withouthadoop -Dhadoopversion=23

   编译完成后将在${PIG_HOME}/build目錄下生成:

pig-0.12.0-SNAPSHOT-core.jar, pig-0.12.0-SNAPSHOT-withouthadoop.jar

(5) 将上一步生成的两个文件Copy${PIG_HOME}下,并进行改名:

pig-0.12.0-SNAPSHOT-core.jar  --> pig-0.12.0.jar

pig-0.12.0-SNAPSHOT-withouthadoop.jar -->  pig-0.12.0-withouthadoop.jar

7         参考博文

本文主要参考下面的博文:

http://www.codelast.com/?p=3621




标签: apache hadoop pig
  • 打赏
  • 点赞
  • 收藏
  • 分享
共有 人打赏支持
粉丝 5
博文 40
码字总数 34979
×
xuesong13
如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
* 金额(元)
¥1 ¥5 ¥10 ¥20 其他金额
打赏人
留言
* 支付类型
微信扫码支付
打赏金额:
已支付成功
打赏金额: