文档章节

Hadoop(quick start)快速入门

lgscofield
 lgscofield
发布于 2015/06/26 13:53
字数 3290
阅读 23
收藏 0
点赞 0
评论 0

 

Hadoop(quick start)快速入门

目的 
•        先决条件 
o        支持平台 
o        所需软件 
o        安装软件 
•        下载 
•        运行Hadoop集群的准备工作 
•        单机模式的操作方法 
•        伪分布式模式的操作方法 
o        配置 
o        免密码ssh设置 
o        执行 
•        完全分布式模式的操作方法 
目的
这篇文档是帮助你快速完成单机上的Hadoop安装与使用以便你对Hadoop分布式文件系统(HDFS)和Map-Reduce框架有所体会,比如在HDFS上运行示例程序或简单作业等。
要安装hadoop还需先安装其他文件,ssh,java等。
先决条件
支持平台
•        GNU/Linux是产品开发和运行的平台。 Hadoop已在有2000个节点的GNU/Linux主机组成的集群系统上得到验证。 
•        Win32平台是作为开发平台支持的。由于分布式操作尚未在Win32平台上充分测试,所以还不作为一个生产平台被支持。 
所需软件
Linux和Windows所需软件包括:
1.        JavaTM1.5.x,必须安装,建议选择Sun公司发行的Java版本。 
2.        ssh 必须安装并且保证 sshd一直运行,以便用Hadoop 脚本管理远端Hadoop守护进程。 
Windows下的附加软件需求
1.        Cygwin - 提供上述软件之外的shell支持。 
安装软件
如果你的集群尚未安装所需软件,你得首先安装它们。
Ubuntu Linux为例:
$ sudo apt-get install ssh 
$ sudo apt-get install rsync 
在Windows平台上,如果安装cygwin时未安装全部所需软件,则需启动cyqwin安装管理器安装如下软件包:
•        openssh - Net 类
下载
为了获取Hadoop的发行版,从Apache的某个镜像服务器上下载最近的 稳定发行版。
运行Hadoop集群的准备工作
解压所下载的Hadoop发行版。编辑 conf/hadoop-env.sh文件,至少需要将JAVA_HOME设置为Java安装根路径。 
尝试如下命令:
$ bin/hadoop 
将会显示hadoop 脚本的使用文档。 
现在你可以用以下三种支持的模式中的一种启动Hadoop集群: 
•        单机模式
•        伪分布式模式
•        完全分布式模式
单机模式的操作方法
默认情况下,Hadoop被配置成以非分布式模式运行的一个独立Java进程。这对调试非常有帮助。
下面的实例将已解压的 conf 目录拷贝作为输入,查找并显示匹配给定正则表达式的条目。输出写入到指定的output目录。 
$ mkdir input 
$ cp conf/*.xml input 
$ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+' 
$ cat output/* 
伪分布式模式的操作方法
Hadoop可以在单节点上以所谓的伪分布式模式运行,此时每一个Hadoop守护进程都作为一个独立的Java进程运行。
配置
使用如下的 conf/hadoop-site.xml:
<configuration>
  <property>
    <name>fs.default.name</name>
    <value>localhost:9000</value>
  </property>
  <property>
    <name>mapred.job.tracker</name>
    <value>localhost:9001</value>
  </property>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
</configuration>
免密码ssh设置
现在确认能否不输入口令就用ssh登录localhost:
$ ssh localhost 
如果不输入口令就无法用ssh登陆localhost,执行下面的命令:
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys 
执行
格式化一个新的分布式文件系统:
$ bin/hadoop namenode -format 
启动Hadoop守护进程:
$ bin/start-all.sh 
Hadoop守护进程的日志写入到 ${HADOOP_LOG_DIR} 目录 (默认是 ${HADOOP_HOME}/logs).
浏览NameNode和JobTracker的网络接口,它们的地址默认为:
•        NameNode - http://localhost:50070/ 
•        JobTracker - http://localhost:50030/ 
将输入文件拷贝到分布式文件系统:
$ bin/hadoop fs -put conf input 
运行发行版提供的示例程序:
$ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+' 
查看输出文件:
将输出文件从分布式文件系统拷贝到本地文件系统查看:
$ bin/hadoop fs -get output output 
$ cat output/* 
或者 
在分布式文件系统上查看输出文件:
$ bin/hadoop fs -cat output/* 
完成全部操作后,停止守护进程:
$ bin/stop-all.sh 





Hadoop集群搭建
•        目的 
•        先决条件 
•        安装 
•        配置 
o        配置文件 
o        集群配置 
        配置Hadoop守护进程的运行环境 
        配置Hadoop守护进程的运行参数 
        Slaves 
        日志 
•        Hadoop的机架感知 
•        启动Hadoop 
•        停止Hadoop 
目的
本文描述了如何安装、配置和管理有实际意义的Hadoop集群,其规模可从几个节点的小集群到几千个节点的超大集群。
如果你希望在单机上安装Hadoop玩玩,从这里能找到相关细节。
先决条件
1.        确保在你集群中的每个节点上都安装了所有必需软件。 
2.        获取Hadoop软件包。 
安装
安装Hadoop集群通常要将安装软件解压到集群内的所有机器上。
通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker。这些机器是masters。余下的机器即作为DataNode也作为TaskTracker。这些机器是slaves。
我们用HADOOP_HOME指代安装的根路径。通常,集群里的所有机器的HADOOP_HOME路径相同。
配置
接下来的几节描述了如何配置Hadoop集群。
配置文件
对Hadoop的配置通过conf/目录下的两个重要配置文件完成:
1.        hadoop-default.xml - 只读的默认配置。 
2.        hadoop-site.xml - 集群特有的配置。 
要了解更多关于这些配置文件如何影响Hadoop框架的细节,请看这里。
此外,通过设置conf/hadoop-env.sh中的变量为集群特有的值,你可以对bin/目录下的Hadoop脚本进行控制。
集群配置
要配置Hadoop集群,你需要设置Hadoop守护进程的运行环境和Hadoop守护进程的运行参数。
Hadoop守护进程指NameNode/DataNode 和JobTracker/TaskTracker。
配置Hadoop守护进程的运行环境
管理员可在conf/hadoop-env.sh脚本内对Hadoop守护进程的运行环境做特别指定。
至少,你得设定JAVA_HOME使之在每一远端节点上都被正确设置。
管理员可以通过配置选项HADOOP_*_OPTS来分别配置各个守护进程。 下表是可以配置的选项。 
守护进程        配置选项
NameNode        HADOOP_NAMENODE_OPTS
DataNode        HADOOP_DATANODE_OPTS
SecondaryNamenode        HADOOP_SECONDARYNAMENODE_OPTS
JobTracker        HADOOP_JOBTRACKER_OPTS
TaskTracker        HADOOP_TASKTRACKER_OPTS
例如,配置Namenode时,为了使其能够并行回收垃圾(parallelGC), 要把下面的代码加入到hadoop-env.sh : 
export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}" 
其它可定制的常用参数还包括:
•        HADOOP_LOG_DIR - 守护进程日志文件的存放目录。如果不存在会被自动创建。 
•        HADOOP_HEAPSIZE - 最大可用的堆大小,单位为MB。比如,1000MB。 这个参数用于设置hadoop守护进程的堆大小。缺省大小是1000MB。 
配置Hadoop守护进程的运行参数
这部分涉及Hadoop集群的重要参数,这些参数在conf/hadoop-site.xml中指定。
参数        取值        备注
fs.default.name        NameNode的URI。        hdfs://主机名/
mapred.job.tracker        JobTracker的主机(或者IP)和端口。        主机:端口。
dfs.name.dir        NameNode持久存储名字空间及事务日志的本地文件系统路径。        当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到所有目录中做冗余备份。
dfs.data.dir        DataNode存放块数据的本地文件系统路径,逗号分割的列表。         当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上。 
mapred.system.dir        Map/Reduce框架存储系统文件的HDFS路径。比如/hadoop/mapred/system/。         这个路径是默认文件系统(HDFS)下的路径, 须从服务器和客户端上均可访问。 
mapred.local.dir        本地文件系统下逗号分割的路径列表,Map/Reduce临时数据存放的地方。         多路径有助于利用磁盘i/o。
mapred.tasktracker.{map|reduce}.tasks.maximum        某一TaskTracker上可运行的最大Map/Reduce任务数,这些任务将同时各自运行。         默认为2(2个map和2个reduce),可依据硬件情况更改。 
dfs.hosts/dfs.hosts.exclude        许可/拒绝DataNode列表。        如有必要,用这个文件控制许可的datanode列表。 
mapred.hosts/mapred.hosts.exclude        许可/拒绝TaskTracker列表。        如有必要,用这个文件控制许可的TaskTracker列表。 
通常,上述参数被标记为 final 以确保它们不被用户应用更改。 
现实世界的集群配置
这节罗列在大规模集群上运行sort基准测试(benchmark)时使用到的一些非缺省配置。
•        运行sort900的一些非缺省配置值,sort900即在900个节点的集群上对9TB的数据进行排序:
参数        取值        备注
dfs.block.size        134217728        针对大文件系统,HDFS的块大小取128MB。
dfs.namenode.handler.count        40        启动更多的NameNode服务线程去处理来自大量DataNode的RPC请求。 
mapred.reduce.parallel.copies        20        reduce启动更多的并行拷贝器以获取大量map的输出。 
mapred.child.java.opts        -Xmx512M        为map/reduce子虚拟机使用更大的堆。 
fs.inmemory.size.mb        200        为reduce阶段合并map输出所需的内存文件系统分配更多的内存。 
io.sort.factor        100        文件排序时更多的流将同时被归并。
io.sort.mb        200        提高排序时的内存上限。
io.file.buffer.size        131072        SequenceFile中用到的读/写缓存大小。
•        运行sort1400和sort2000时需要更新的配置,即在1400个节点上对14TB的数据进行排序和在2000个节点上对20TB的数据进行排序:
参数        取值        备注
mapred.job.tracker.handler.count        60        启用更多的JobTracker服务线程去处理来自大量TaskTracker的RPC请求。 
mapred.reduce.parallel.copies        50        
tasktracker.http.threads        50        为TaskTracker的Http服务启用更多的工作线程。reduce通过Http服务获取map的中间输出。 
mapred.child.java.opts        -Xmx1024M        使用更大的堆用于maps/reduces的子虚拟机
Slaves
通常,你选择集群中的一台机器作为NameNode,另外一台不同的机器作为JobTracker。余下的机器即作为DataNode又作为TaskTracker,这些被称之为slaves。
在conf/slaves文件中列出所有slave的主机名或者IP地址,一行一个。
日志
Hadoop使用Apache log4j来记录日志,它由Apache Commons Logging框架来实现。编辑conf/log4j.properties文件可以改变Hadoop守护进程的日志配置(日志格式等)。
历史日志
作业的历史文件集中存放在hadoop.job.history.location,这个也可以是在分布式文件系统下的路径,其默认值为${HADOOP_LOG_DIR}/history。jobtracker的web UI上有历史日志的web UI链接。
历史文件在用户指定的目录hadoop.job.history.user.location也会记录一份,这个配置的缺省值为作业的输出目录。这些文件被存放在指定路径下的“_logs/history/”目录中。因此,默认情况下日志文件会在“mapred.output.dir/_logs/history/”下。如果将hadoop.job.history.user.location指定为值none,系统将不再记录此日志。
用户可使用以下命令在指定路径下查看历史日志汇总
$ bin/hadoop job -history output-dir 
这条命令会显示作业的细节信息,失败和终止的任务细节。 
关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看
$ bin/hadoop job -history all output-dir 
一但全部必要的配置完成,将这些文件分发到所有机器的HADOOP_CONF_DIR路径下,通常是${HADOOP_HOME}/conf。
Hadoop的机架感知
HDFS和Map/Reduce的组件是能够感知机架的。
NameNode和JobTracker通过调用管理员配置模块中的APIresolve来获取集群里每个slave的机架id。该API将slave的DNS名称(或者IP地址)转换成机架id。使用哪个模块是通过配置项topology.node.switch.mapping.impl来指定的。模块的默认实现会调用topology.script.file.name配置项指定的一个的脚本/命令。 如果topology.script.file.name未被设置,对于所有传入的IP地址,模块会返回/default-rack作为机架id。在Map/Reduce部分还有一个额外的配置项mapred.cache.task.levels,该参数决定cache的级数(在网络拓扑中)。例如,如果默认值是2,会建立两级的cache- 一级针对主机(主机 -> 任务的映射)另一级针对机架(机架 -> 任务的映射)。 
启动Hadoop
启动Hadoop集群需要启动HDFS集群和Map/Reduce集群。
格式化一个新的分布式文件系统:
$ bin/hadoop namenode -format 
在分配的NameNode上,运行下面的命令启动HDFS:
$ bin/start-dfs.sh 
bin/start-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。
在分配的JobTracker上,运行下面的命令启动Map/Reduce:
$ bin/start-mapred.sh 
bin/start-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动TaskTracker守护进程。
停止Hadoop
在分配的NameNode上,执行下面的命令停止HDFS:
$ bin/stop-dfs.sh 
bin/stop-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。
在分配的JobTracker上,运行下面的命令停止Map/Reduce:
$ bin/stop-mapred.sh 
bin/stop-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止TaskTracker守护进程。

© 著作权归作者所有

共有 人打赏支持
lgscofield

lgscofield

粉丝 20
博文 105
码字总数 63036
作品 0
南京
架构师
Installation【快速安装】

Installation【快速安装】 第1步:预检 在部署Ceph分布式存储集群,Ceph客户端和Ceph的节点之前,可能需要一些基本的配置工作。您还可以利用在Ceph的社区帮助文件的“入门”中获取帮助。 Pr...

天空冰雨 ⋅ 2015/03/25 ⋅ 0

Binary Wang/java-emoji-converter

Java Emoji Converter (Emoji表情转换工具) Emoji转换工具,便于各种规格客户端生成的Emoji字符串转换成另外一种格式。 A tool to convert emoji string among each type, like softbank ...

Binary Wang ⋅ 2017/10/24 ⋅ 0

git版本控制实践纪录

oschina的实践 ssh-keygen -t rsa -C “sample@163.com” 终端中输入命令 确定路径 输入RSA的密码, 点击进入个人资料个人头像 http://git.oschina.net/oschina/git-osc/wikis/帮助#ssh-keys...

云飞扬v5 ⋅ 2015/12/17 ⋅ 0

NW.js 入门指南

本文同步至 本文介绍了 NW.js(node-webkit) 的基本知识,通过本入门指南的学习,可以让你快速构建一个 NW.js 的桌面应用。 简介 NW.js (原名 node-webkit)是一个基于 和 的应用运行时,通...

waylau ⋅ 2015/11/19 ⋅ 0

Scala-Spark环境搭建配置

开始搭建的jdk这些自不必说,本文只是简单的介绍安装scala/spark 1.下载scala安装包 去官网下载tgz包,解压在/opt/scala/下,设置环境变量: export SCALA_HOME=/opt/scala/scala-2.10.3exp...

hanzhankang ⋅ 2014/02/28 ⋅ 0

apache commons (email,configuration)学习

非常实用的两个工具类,学习成本超低。 commons-email 见名之意,邮件发送的一个工具包 用户指南: http://commons.apache.org/proper/commons-email/userguide.html 看了一会。。copy过来,...

lis1314 ⋅ 2016/06/28 ⋅ 0

HBase伪分布式安装

文档转自:http://blog.panaihua.com/archives/92 一、概述 我的机器使用hadoop-2.7.2,hbase-1.1.3版本,系统为ubuntu14。 hadoop安装:上一篇文章 二、HBase的安装 下载地址:http://mirr...

kongjun ⋅ 2016/03/02 ⋅ 0

大数据怎样才能踏入进去?年薪60万大数据架构师教你如何入门!

1.Linux基础和分布式集群技术 学完此阶段可掌握的核心能力: 熟练使用Linux,熟练安装Linux上的软件,了解熟悉负载均衡、高可靠等集群相关概念,搭建互联网高并发、高可靠的服务架构; 学完此...

董黎明 ⋅ 06/09 ⋅ 0

淘宝Hadoop作业平台--宙斯Zeus

宙斯(zeus)是什么 宙斯是一个完整的Hadoop的作业平台 从Hadoop任务的调试运行到生产任务的周期调度 宙斯支持任务的整个生命周期 从功能上来说,支持: Hadoop MapReduce任务的调试运行 Hive...

xuhengfei ⋅ 2013/05/03 ⋅ 27

mushroom 0.2 发布,metric for java 的方案

mushroom 是一个 metric for java 的方案,目前 v0.2 版本的源码均来自 Hadoop 1.0.4 的 metric2 package,你可以理解 v0.1 - v0.2 版本就是 fork hadoop 中的 metric 代码(v0.2只有少量改动...

zavakid ⋅ 2013/04/11 ⋅ 2

没有更多内容

加载失败,请刷新页面

加载更多

下一页

android -------- 颜色的半透明效果配置

最近有朋友问我 Android 背景颜色的半透明效果配置,我网上看资料,总结了一下, 开发中也是常常遇到的,所以来写篇博客 常用的颜色值格式有: RGB ARGB RRGGBB AARRGGBB 这4种 透明度 透明度...

切切歆语 ⋅ 12分钟前 ⋅ 0

CentOS开机启动subversion

建立自启动脚本: vim /etc/init.d/subversion 输入如下内容: #!/bin/bash## subversion startup script for the server## chkconfig: 2345 90 10# description: start the subve......

随风而飘 ⋅ 15分钟前 ⋅ 0

Nginx + uwsgi @ubuntu

uwsgi 安装 sudo apt-get install python3-pip # 注意 ubuntu python3默认没有安装pippython3 -m pip install uwsgi 代码(test.py) def application(env, start_response): start_res......

袁祾 ⋅ 16分钟前 ⋅ 0

版本控制工具

CSV , SVN , GIT ,VSS

颖伙虫 ⋅ 18分钟前 ⋅ 0

【2018.06.19学习笔记】【linux高级知识 13.1-13.3】

13.1 设置更改root密码 13.2 连接mysql 13.3 mysql常用命令

lgsxp ⋅ 26分钟前 ⋅ 0

LVM

LVM: 硬盘划分分区成物理卷->物理卷组成卷组->卷组划分逻辑分区。 1.磁盘分区: fdisk /dev/sdb 划分几个主分区 输入t更改每个分区类型为8e(LVM) 使用partprobe生成分区的文件:如/dev/sd...

ZHENG-JY ⋅ 54分钟前 ⋅ 0

彻底删除Microsoft Office的方法

参照此链接彻底删除Office https://support.office.com/zh-cn/article/%e4%bb%8e-pc-%e5%8d%b8%e8%bd%bd-office-9dd49b83-264a-477a-8fcc-2fdf5dbf61d8?ui=zh-CN&rs=zh-CN&ad=CN......

Kampfer ⋅ 今天 ⋅ 0

大盘与个股之间关系

大盘走多:积极出手 顺势加码 大盘走空: 少量出手 退场观望 大盘做头:逆势减码 少量操作 大盘做底 : 小量建仓 小量试单

guozenhua ⋅ 今天 ⋅ 0

Day16 LVM(逻辑卷管理)与磁盘故障小案例

lvm详解 简述 LVM的产生是因为传统的分区一旦分区好后就无法在线扩充空间,也存在一些工具能实现在线扩充空间但是还是会面临数据损坏的风险;传统的分区当分区空间不足时,一般的解决办法是再...

杉下 ⋅ 今天 ⋅ 0

rsync实现多台linux服务器的文件同步

一、首先安装rsync,怎样安装都行,rpm,yum,还是你用源码安装都可以。因为我用的是阿里云的ESC,yum install rsync就ok了。 二、配置rsync服务 1.先建立个同步数据的帐号 123 groupadd r...

在下头真的很硬 ⋅ 今天 ⋅ 0

没有更多内容

加载失败,请刷新页面

加载更多

下一页

返回顶部
顶部