文档章节

Hadoop集群搭建过程中遇到的问题及解决方法

sucre
 sucre
发布于 2016/06/23 21:58
字数 1032
阅读 355
收藏 8

在CentOS 7上用Hadoop 2.7.2搭建了一个集群,为的是自己学习各种开源框架,可是在搭的过程中遇到一个问题,namenode和datanode节点都起来了,但是datanode节点一直无法访问namenode:9000端口,开始第一反应是把防火墙关闭,可是执行了命令还是不行,今天才发现原来执行错了,关闭防火墙的命令应该为

systemctl stop firewalld.service

为了能让集群重启后还能正常工作,我们要把防火墙彻底关掉,不让它开机启动

systemctl disable firewalld.service

到底关没关,查看防火墙状态命令为:

firewall-cmd --state

执行完命令如果显示

not running

那么恭喜你,防火墙关闭成功了,好,现在说说我遇到的问题

2016-06-18 21:23:53,980 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: namenode/192.168.1.100:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
2016-06-18 21:23:55,029 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: namenode/192.168.1.100:9000. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
2016-06-18 21:23:56,030 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: namenode/192.168.1.100:9000. Already tried 2 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
2016-06-18 21:23:57,031 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: namenode/192.168.1.100:9000. Already tried 3 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
2016-06-18 21:23:58,032 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: namenode/192.168.1.100:9000. Already tried 4 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

看到了这个问题第一直觉就应该是防火墙在做怪,关闭后问题解决了。 顺便对我搭建的过程做了总结,主要的配置在一台服务器上弄好后,其它的就直接scp吧

1、修改host(vim /etc/hosts)

#127.0.0.1   localhost localhost.localdomain localhost4            localhost4.localdomain4
#::1         localhost localhost.localdomain localhost6        localhost6.localdomain6
192.168.1.100 namenode
192.168.1.101 datanode1
192.168.1.102 datanode2

其它的都不要,就只要最后三行就行

2、修改IP,将其改为静态IP(vim /etc/sysconfig/network-scripts/ifcfg-eth0)

DEVICE=eth0
IPV6INIT=yes
BOOTPROTO=dhcp
UUID=61fe61d3-fcda-4fed-ba81-bfa767e0270a
ONBOOT=yes
TYPE=Ethernet
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
NAME="System eth0"
BOOTPROTO="static" 
ONBOOT="yes" 
IPADDR=192.168.1.100 
GATEWAY=192.168.1.1 
NETMASK=255.255.255.0 
DNS1=192.168.1.1 

这里要注意ipaddr了每个服务器不要一样哦

3、修改hostname(vim /etc/hostname) 这里只是主节点的

namenode

4、修改core-site.xml (vim core-site.xml)

<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/tmp</value>
    <description>Abase for other temporary directories.</description>
</property>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://namenode:9000</value>
</property>
<property>
    <name>io.file.buffer.size</name>
    <value>4096</value>
</property>

5、修改hdfs-site.xml(vim hdfs-site.xml)

<configuration>
<property>
    <name>dfs.nameservices</name>
    <value>hadoop-cluster1</value>
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>namenode:50090</value>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:///home/hadoop/dfs/name</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:///home/hadoop/dfs/data</value>
</property>
<property>
    <name>dfs.replication</name>
    <value>2</value>
</property>
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>
</configuration>

6、修改mapred-site.xml(vim mapred-site.xml)

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
<property>
    <name>mapreduce.jobtracker.http.address</name>
    <value>namenode:50030</value>
</property>
<property>
    <name>mapreduce.jobhistory.address</name>
    <value>namenode:10020</value>
</property>
<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>namenode:19888</value>
</property>

7、修改yarn-site.xml(vim yarn-site.xml)

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.resourcemanager.address</name>
    <value>namenode:8032</value>
</property>
<property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>namenode:8030</value>
</property>
<property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>namenode:8031</value>
</property>
<property>
    <name>yarn.resourcemanager.admin.address</name>
    <value>namenode:8033</value>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>namenode:8088</value>
</property>

8、修改slaves (vim slaves)

datanode1
datanode2

9、修改hadoop-evn.sh和yarn-evn.sh 在里面加上JAVA_HOME

export JAVA_HOME=/usr/java/jdk1.8.0_91

10、最后修改/etc/profile

在文件最后加上

export JAVA_HOME=/usr/java/jdk1.8.0_91
export HADOOP_HOME=/usr/local/hadoop-2.7.2
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

好了,以上就是Hadoop的配置方式,三个节点进行同样的修改即可。 为了能让节点间互相无密码登录,还要进行ssh配置 在~/.ssh目录下面执行

ssh-keygen -t rsa

然后一路回车,要的就是空密码,执行完成后,会在目录下面生成两个文件 私钥文件:id_raa 公钥文件:id_rsa.pub 然后执行

cat id_rsa.pub >> authorized_keys 

将公钥文件authorized_keys分发到各datanode节点:

scp authorized_keys  root@datanode1:/root/.ssh/  

最后,验证一下

ssh datanode1

好了,搭建过程结束,问题也解决了,如果你在搭建的过程中有什么问题欢迎留言。

© 著作权归作者所有

sucre
粉丝 33
博文 417
码字总数 214722
作品 0
高级程序员
私信 提问
HDFS 集群无法启动 DataNode 节点以及管理界面缺少 DataNode 节点的解决方法

版权声明:Follow your heart and intuition. https://blog.csdn.net/qq_35246620/article/details/88657826 文章目录 前言 前言 搭建了一个 HDFS 集群,用了 3 台虚拟机,1 台虚拟机是作为节...

CG国斌
03/21
0
0
Hadoop集群(三) Hbase搭建

前面已经完成Zookeeper和HDFS的安装,本文会详细介绍Hbase的安装步骤。以及安装过程中遇到问题的汇总。 系列文章: Hadoop集群(一) Zookeeper搭建 Hadoop集群(二) HDFS搭建 Hadoop集群(四) H...

hsbxxl
2017/10/11
0
0
零基础学习hadoop到上手工作线路指导(初级篇)

零基础学习hadoop,没有想象的那么困难,也没有想象的那么容易。才刚接触大数据时,曾经想过培训,但是培训机构的选择就让我很纠结。因为师兄跟我说,很多培训机构的老师其实以前就是他们的学...

我思gu我在
2017/01/09
211
3
大数据教程(11.4)hadoop2.9.1集群HA联邦(federation)高可用搭建

上一篇文章介绍了haoop集群HA高可用的搭建,相信大家已经掌握了其知识;本篇博客博主将继续为小伙伴分享HA联邦高可用的搭建,虽然,联邦机制在很多公司可能还达不到这样的数据集群规模以至于...

em_aaron
01/13
100
0
HBase跨版本数据迁移总结

版权声明:本文由王亮原创文章,转载请注明出处: 文章原文链接:https://www.qcloud.com/community/article/115 来源:腾云阁 https://www.qcloud.com/community 某客户大数据测试场景为:S...

偶素浅小浅
2016/11/04
66
0

没有更多内容

加载失败,请刷新页面

加载更多

总结:TCP/IP协议

一、介绍 TCP协议属于OSI七层模型中的传输层协议,提供处于网络连接中的两台计算机之间的数据 传输。   在传输层有两个性质不同的协议:TCP(Transmission Control Protocol,传输控制协议...

浮躁的码农
5分钟前
1
0
一言不合就删库跑路?万名贡献者和阿里巴巴开源的二三事

9 月 27 日云栖大会,阿里巴巴宣布贾扬清担任开源技术委员会负责人。 有人问:开源是为了什么? 从个人视角看,可以证明自己的专业能力,获得行业认可; 从企业视角看,可以建立技术影响力,...

大涛学弟
16分钟前
2
0
JAVA编程注意事项(性能篇)

1. 尽量在合适的场合使用单例 使用单例可以缩短加载的时间,提高加载的效率,单例主要适用于以下三个方面: 第一,控制资源的使用,通过线程同步来控制资源的并发访问; 第二,控制实例的产生...

你好夜故事
17分钟前
2
0
List 前端 AngularJS JS 对IP排序

数据格式 $scope.dataList=[ {"ip":"192.168.10.10", "port":"8080",...}, { "ip":"192.168.10.12", "port":"8080",... } ,.....] 调用 $scope.ipSortForward($scope.dataList,"ip") 核心代码......

最菜最菜之小菜鸟
17分钟前
2
0
浅析Cassandra LeveledCompactionStrategy

前言 Cassandra是基于LSM架构的分布式数据库。LSM中有一个很重要的过程,就是压缩(Compaction)。默认的压缩策略是SizeTieredCompactionStrategy,今天主要说一下另一种压缩策略LeveledComp...

阿里云官方博客
22分钟前
3
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部