用Hadoop Streaming技术集成newLISP脚本
用Hadoop Streaming技术集成newLISP脚本
超人学院 发表于3年前
用Hadoop Streaming技术集成newLISP脚本
  • 发表于 3年前
  • 阅读 11
  • 收藏 0
  • 点赞 0
  • 评论 0

新睿云服务器60天免费使用,快来体验!>>>   

摘要: 本文example6环境和之前的Hadoop 1.x不同,是在Hadoop 2.x环境下测试。功能和前面的日志处理程序一样。

本文example6环境和之前的Hadoop 1.x不同,是在Hadoop 2.x环境下测试。功能和前面的日志处理程序一样。

第一个newLISP脚本,起到mapper的作用,在stdin中读取文本数据,将did作为key, value1,然后将结果输出到stdout

第二个newLISP脚本,起到reducer的作用,在stdin中读取<key, values>, keydic values是所有的value,简单对value求和后,写到stdout

最后应该可以在HDFS下看到结果。

 

用脚本编程的好处是方便测试,现在先开发newLISP脚本读入文件,并仿照map逻辑处理,然后交给后续的newLISP脚本仿照reduce处理。

下面是map.lsp代码:

[plain] view plaincopyprint?

1.  #!/usr/bin/newlisp  

2.    

3.  (while (read-line)  

4.    (set 'value (parse (current-line) ","))  

5.    (println (string (value 2) "\t1"))  

6.  )  

7.    

8.  (exit)  


测试一下:

[plain] view plaincopyprint?

1.  cat logs/sign_2014-05-10.0.csv | ./map.lsp  


结果还不错:

[plain] view plaincopyprint?

1.  537025b84700aab27472b87f        1  

2.  537023124700aab27472b82a        1  

3.  537031a24700aab27472b982        1  

4.  537023c84700aab27472b841        1  

5.  537014e74700aab27472b48b        1  

6.  53702cac4700aab27472b928        1  

7.  537049cd4700aab27472ba91        1  

8.  5370dd0b4700aab27472bde4        1  


将一行记录按照,拆开,放在一个list中,然后取第三个元素,也就是设备ID,之后添加\t为列分隔符号,然后再添加1.

这样就转成了did\t1\n的形式的<key,value>reduce。注意newLISP的代码println函数会自动在字符串后面添加\n.

 

下面来实现reduce.lsp代码:

[plain] view plaincopyprint?

1.  (new Tree 'my-table)  

2.    

3.  (while (read-line)  

4.    (set 'line-value (parse (current-line) "\t"))  

5.    (set 'key (line-value 0))  

6.    (set 'value (int (line-value 1)))  

7.    (set 'v (my-table key))  

8.    (if v  

9.        (my-table key (+ v value))  

10.     (my-table key value)  

11.       )  

12. )  

13.   

14. (dolist (item (my-table)) (println (item 0) "\t" (item 1)))  

15.   

16. (exit)  


首先创建了一个my-table,用来保存<key,value>

然后将map.lsp输出的数据每行按照\t拆分,获取keyvalue

存入my-table中,用key查询,有则value1,key则添加进去。

最后遍历整个my-table,输出did\tsum\n这样的数据。

 

下面的命令可以将mapreduce脚本连起来测试:

[plain] view plaincopyprint?

1.  cat logs/sign_2014-05-10.0.csv | ./map.lsp | sort | ./reduce.lsp  

 

hadoop集群部署的时候首先要确保newlisp二进制程序都部署在所有节点的/usr/bin/目录下,并且有执行权限。由于newlisp程序本身非常小,所以部署及其轻松,直接scp即可。

然后执行hadoop命令:

hadoop jar hadoop-streaming-1.0.0.jar -files map.lsp reduce.lsp -input /user/chenshu/share/logs -output /user/chenshu/share/output/lisp -mapper map.lsp -reducer reduce.lsp 

 

标签: Hadoop HDFS
  • 打赏
  • 点赞
  • 收藏
  • 分享
共有 人打赏支持
粉丝 105
博文 335
码字总数 388917
×
超人学院
如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
* 金额(元)
¥1 ¥5 ¥10 ¥20 其他金额
打赏人
留言
* 支付类型
微信扫码支付
打赏金额:
已支付成功
打赏金额: