文档章节

Hadoop集群搭建

一只石头
 一只石头
发布于 2016/04/11 10:55
字数 1255
阅读 91
收藏 8

1、安装虚拟机

虚拟机:VMware-workstation 11.0.0

操作系统:CentOS-6.5 64

2、安装Xmanager

版本:Xmanager-v5.0.0,完成安装后,使用Xshell连接linux虚拟机,连接成功。

往虚拟机里拉文件比较方便,但是当虚拟机网络连接改为桥接模式后变不能使用这个了。

3、创建用户组和用户

创建用户组:groupadd hadoop

添加用户:useradd hadoop -g hadoop

4、安装jdk

a)安装包:jdk-7u21-linux-i586.tar.gz(不推荐使用rpm格式)

b)解压到/opt文件目录:tar -zxvf jdk-7u21-linux-i586.tar.gz -C /opt

c)改名为javamv jdk1.7.0_21 java

d)配置环境变量:vi /etc/profile,添加如下内容

  export JAVA_HOME=/opt/java
  exprot PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

e)使配置文件立即生效:source /etc/profile

f)设置所有者为hadoopchown -R hadoop:hadoop java/

5、安装Hadoop

a)安装包:hadoop-2.6.3.tar.gz

b)解压到/opt,改名为hadoop

c)设置环境变量:vi /etc/profile,添加如下内容

 

  export HADOOP_HOME=/opt/hadoop
 export PATH=$HADOOP_HOME/bin:$PATH

 

 

d)使配置文件立即生效:source /etc/profile

e)设置所有者为hadoopchown -R hadoop:hadoop hadoop/

f)在hadoop目录下新建三个文件目录:mkdir name/ ; mkdir data/ ; mkdir tmp/

6、修改地址解析文件/etc/hosts

命令:vi /etc/hosts,添加如下内容

192.168.253.131 master
192.168.253.132 data1
192.168.253.133 data2

 

 

7、修改hadoop配置文件

切换到hadoop用户,修改hadoop/etc/hadoop(老版本是hadoop/conf)下的配置文件:

a)hadoop-env.shyarn-env.sh

修改:

export JAVA_HOME=/opt/java

 

 

bcore-site.xml <configuration> </configuration>标签中添加如下内容:

 

<property>
    <name>hadoop.tmp.dir</name>
    <value>file:/opt/hadoop/tmp</value>
 </property>
 <property>
    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
 </property>                         
 <property>     
    <name>io.file.buffer.size</name>
    <value>131072</value>
 </property>
 <property>
    <name>hadoop.proxyuser.u0.hosts</name>
    <value>*</value>
 </property>
 <property>
    <name>hadoop.proxyuser.u0.groups</name>     
    <value>*</value>
 </property>

 

 

 

chdfs-site.xml <configuration></configuration>标签中添加如下内容:

  

<property>
     <name>dfs.namenode.secondary.http-address</name>
     <value>master:9001</value>
 </property>
 <property>
     <name>dfs.namenode.name.dir</name>
     <value>file:/opt/hadoop/name</value>
 </property>
 <property>
     <name>dfs.datanode.data.dir</name>
     <value>file:/opt/hadoop/data</value>
 </property>
 <property>
     <name>dfs.replication</name>
     <value>3</value>
 </property>
 <property>
     <name>dfs.webhdfs.enabled</name>
     <value>true</value>
 </property>

 

 

 

   d)默认只有mared-site.xml.template复制并命名:cp mared-site.xml.template mared-site.xml

    在<configuration></configuration>标签中添加如下内容:

 

   <property>
     <name>mapreduce.framework.name</name>
     <value>yarn</value>
 </property>
 <property>
     <name>mapreduce.jobhistory.address</name>
     <value>master:10020</value>
 </property>
 <property>
     <name>mapreduce.jobhistory.webapp.address</name>
     <value>master:19888</value>
 </property>

 

 

   eyarn-site.xml

    在<configuration></configuration>标签中添加如下内容:

  <property>
   <name>yarn.nodemanager.aux-services</name>
   <value>mapreduce_shuffle</value>
  </property>
  <property>
   <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
   <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  </property>
  <property>
   <name>yarn.resourcemanager.address</name>
   <value>master:8032</value>
  </property>
  <property>
   <name>yarn.resourcemanager.scheduler.address</name>
   <value>master:8030</value>
  </property>
  <property>
   <name>yarn.resourcemanager.resource-tracker.address</name>
   <value>master:8035</value>
  </property>
  <property>
   <name>yarn.resourcemanager.admin.address</name>
   <value>master:8033</value>
  </property>
  <property>
   <name>yarn.resourcemanager.webapp.address</name>
   <value>master:8088</value>
  </property>

 

 

f配置slaves文件-->>增加slave节点 

vi slaves
data1
data2

 

 

8、克隆

完整克隆出两个虚拟机,改hostnamevi /etc/hostname,分别为masterdata1data2

9、配置虚拟机网络

虚拟机安装后默认的是NAT模式,自动获取ip,本机能上网,虚拟机就能上网。Haoop集群部署,最好是把三个虚拟机设为桥接模式,就需要注意把三个ip设在同一个网段。

由于克隆后的系统,虚拟机只是修改了虚拟机的名字MAC等,并在/etc/udev/rules.d/70-persistent-net.rules文件中增加了一行名为eth1的设备名,

1vi /etc/udev/rules.d/70-persistent-net.rules 文件 

删除掉 关于 eth0 的信息修改 第二条 eth1 的网卡的名字为 eth0

2vi /etc/udev/rules.d/70-persistent-net.rules/etc/sysconfig/network-scripts/ifcfg-eth0

中的MAC地址要与虚拟机网卡的MAC地址相对应。

3vi /etc/sysconfig/network-scripts/ifcfg-eth0

修改UUIDIPADDR

到此:在masterping data1data2,能ping通,网络就配置好了

10、SSH无密码登录

1)产生密钥

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

2)导入authorized_keys

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

3)试验看是否安装成功

#查看是否有sshd进程  ps -e | grep ssh

#尝试登录本地  ssh localhost

4)密钥共享

#如下:hadoop是我的用户名

#进入master.ssh目录

scp authorized_keys hadoop@data1:~/.ssh/authorized_keys_master

#进入data1.ssh目录

cat authorized_keys_master  >>  authorized_keys

scp authorized_keys hadoop@data2:~/.ssh/authorized_keys_master

#进入data2.ssh目录

cat authorized_keys_master  >>  authorized_keys

#此时的authorized_keys已经包含了三个虚拟机的密钥,复制给masterdata1

scp authorized_keys hadoop@master:~/.ssh/authorized_keys

scp authorized_keys hadoop@data1:~/.ssh/authorized_keys

5)无密码登录测试

ssh data1

ssh data2

...

11、配置Hadoop环境变量

export JAVA_HOME=/opt/java
export HADOOP_HOME=/opt/hadoop
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:
$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

 

 

前面已经配置过jdk的环境变量,只需再加上hadoop的就行

12、启动hadoop

hadoop namenode -format

start-all.sh

查看进程:jps

出现错误

-bash: /opt/java/bin/jps: /lib/ld-linux.so.2: bad ELF interpreter: No such file or directory

yum install glibc.i686

下载失败的话,使用如下方法

 

配置yum本地 安装缺少包(适合OEL)

mount /dev/cdrom1 /mnt

cd /etc/yum.repos.d 把里面CentOS开头的(默认的网络下载相关文件)备份到aa(文件夹)

vi /etc/yum.repos.d/rhel-source.repo

[rhel-source]

name=Red Hat Enterprise Linux $releasever - $basearch - Source

baseurl=file:///mnt/

enabled=1

gpgcheck=0

 

yum install glibc.i686

 

作者的话:该文档只是自己尝试搭建hadoop做的一个笔记,有不清楚或者不对的地方还望见谅,如果发现不对的地方,望指明,共同学习,共同进步。 

 

 

 

 

© 著作权归作者所有

一只石头
粉丝 4
博文 44
码字总数 16333
作品 0
郑州
程序员
私信 提问
加载中

评论(1)

开_源_爸_爸
开_源_爸_爸
good
HBase1.2.6集群部署教程

1.引言 在前面的博客中我们介绍HBase的伪分布安装,在本篇博客中就主要介绍一下HBase的集群部署,由于HBase是一款Hadoop之上的NoSQL数据库,因此我们在安装HBase之前需要首先部署Hadoop的集群...

Liri
2017/12/16
0
0
(13)HBase 1.2.6 集群部署

1.引言 在前面的博客中我们介绍的伪分布安装,在本篇博客中就主要介绍一下的集群部署,由于是一款之上的数据库,因此我们在安装之前需要首先部署的集群,其次需要使用进行管理,因此我们也需...

LoveCarpenter
2017/12/15
0
0
Spark2.0.0集群部署教程

1.引言 在前面的博客中介绍了Spark的伪分布安装,在本篇博客中将介绍一下Spark的集群部署,在本博客中Spark的调度采用Hadoop的Yarn平台,因此在安装Spark之前,需要先部署Hadoop的集群,因为...

Liri
2017/12/16
0
0
Hadoop集群应用于大数据分析优势和挑战

大数据分析在过去几年里非常流行。即便如此,很多组织发现,现有的数据挖掘和分析技术还是不能胜任大数据的处理任务。对于这个question,一个可能的解决方案就是搭建Hadoop集群,但它并不适合...

八戒_o
2015/12/11
3.6K
0
(14)Spark 2.0.0 集群部署

1.引言 在前面的博客中介绍了Spark的伪分布安装,在本篇博客中将介绍一下Spark的集群部署,在本博客中Spark的调度采用Hadoop的Yarn平台,因此在安装Spark之前,需要先部署的集群,因为我在安...

LoveCarpenter
2017/12/15
0
0

没有更多内容

加载失败,请刷新页面

加载更多

默认指定logback日志位置

平常我们在使用logback作为日志框架的时候,如果我们不指定日志的绝对路径,就会在我们的当前目录(user.dir)下面生成日志文件,平常我们在开发阶段只要制定一个log目录就好了,但是如果在生...

seno
25分钟前
0
0
浅谈 Spark 的多语言支持

作者:郑锴,花名铁杰,阿里巴巴高级技术专家,Apache Hadoop PMC,Apache Kerby 创立者。深耕分布式系统开发和开源大数据多年,先后专注在安全,存储和计算领域。之前在 Intel,目前转战阿里...

阿里云官方博客
32分钟前
0
0
Windows 10 文件覆盖的坑

Windows 10 下,文件覆盖的时候,如果文件名大小写不同,但字母相同时,会有问题。 如下图,新文件是大写 S 开头,旧文件是小写开头,覆盖后,仍然是小写开头。 不过文件内容是覆盖过来了的,...

yeyi771
33分钟前
2
0
浅谈 Spark 的多语言支持

作者:郑锴,花名铁杰,阿里巴巴高级技术专家,Apache Hadoop PMC,Apache Kerby 创立者。深耕分布式系统开发和开源大数据多年,先后专注在安全,存储和计算领域。之前在 Intel,目前转战阿里...

阿里云云栖社区
37分钟前
4
0
Linux运维常见的硬件及系统问题

一、服务器常见故障和现象 1、有关服务器无法启动的主要原因 : ①市电或电源线故障(断电或接触不良) ②电源或电源模组故障 ③内存故障(一般伴有报警声) ④CPU故障(一般也会有报警声) ⑤主板故...

寰宇01
45分钟前
1
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部