文档章节

HDFS【2.5.1】系列3:解密命令行 ./bin/hdfs namenode -format

强子大叔的码田
 强子大叔的码田
发布于 2014/11/19 13:56
字数 413
阅读 121
收藏 0

学习Hadoop的过程中,教程标注需要在启动集群之前先格式化hdfs文件系统。

我之前以为格式化就跟linux一样,

后来很粗略的看过老版的源码,发现比我想的要简单很多。唯一可以解释的就是分布式的因素吧。

PS: 老版的格式化分析请见我之前博客:http://my.oschina.net/qiangzigege/blog/304601

---------------------------------------------------------------------------------------------------

不管怎么样,我们来看看 新版本 2.5.1中的HDFS的格式化吧。

编译好的目录在:~/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1

进去是不是看到了很多熟悉的文件?!

为了方便,我们建立一个软链接如下:

ln -s  ~/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1  hadoop-2.5.1-run

----------------------------------------------------------------------------------------------------------------------

root@idc100:~# cd hadoop-2.5.1-run
root@idc100:~/hadoop-2.5.1-run# ls
bin  hadoop-2.5.1-run  lib      LICENSE.txt  README.txt  share
etc  include           libexec  NOTICE.txt   sbin
root@idc100:~/hadoop-2.5.1-run#

 ------------------------------------------------------------------------------------------------------------------

执行 ./bin/hdfs namenode -format 是没有问题的。

然后我们从./bin/hdfs脚本入手来一点一点研究格式化的过程。

------------------------------------------------------------------------------------------

经过漫长的shell脚本研究(其实也没多久,一个晚上吧)

具体分析的细节我就不说了,说起来都是泪

自己在shell脚本里加echo查看各个变量的值,export的值

反正最终就是执行这么一句:

----------------------

通过echo,我们可以看到最终的结果就是执行: 

/usr/lib/jvm/jdk1.7.0_21/bin/java -Dproc_namenode -Xmx1000m -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/root/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/root/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1 -Dhadoop.id.str=root -Dhadoop.root.logger=INFO,console -Djava.library.path=/root/hadoop-2.5.1-src/hadoop-dist/target/hadoop-2.5.1/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.hdfs.server.namenode.NameNode -format

 

© 著作权归作者所有

强子大叔的码田

强子大叔的码田

粉丝 922
博文 1496
码字总数 1247433
作品 9
南京
架构师
私信 提问
centos6.5安装hadoop集群

环境准备:4台机器 192.168.217.174 node1 -----namenode 192.168.217.175 node2 -----secondary namenode 192.168.217.176 node3 -----datanode 192.168.217.177 node4 -----datanode 1. 4......

飞侠119
2017/05/03
0
0
[Hadoop][笔记]4个节点搭建Hadoop2.x HA测试集群

搭建Hadoop2.x HA 1.机器准备 虚拟机 4台 10.211.55.22 node1 10.211.55.23 node2 10.211.55.24 node3 10.211.55.25 node4 2.四台主机节点安排 node namenode datanode zk zkfc jn rm appli......

zemel
2016/08/22
93
0
Hadoop-2.5.1 编译安装步骤

环境: 系统 CentOS 6.3 64 位 * 2 Master 10.10.55.112Slave1 10.10.55.133软件: Hadoop- 2.5.1- src.tar.gz 一、准备环境 1.1 分别设置节点ip地址(固定) 此步骤所有节点都要操作 vi /et...

次渠龙哥
2014/09/24
0
0
ubuntu 安装hadoop 伪分布模式

1/首先在官网下载hadoop文件,hadoop-0.23.6.tar.gz 2/系统下要安装jdk 我的系统jdk安装在:JAVA_HOME=/usr/lib/jvm/java-6-oracle 3/解压hadoop-0.23.6.tar.gz文件: tar -xvzf hadoop-0.2...

cookqq
2014/01/05
169
0
HDFS【2.5.1】系列1:HDFS的核心数据结构---元数据

我们都知道Hadoop的底层是HDFS-Hadoop Distributed File System.也就是Hadoop分布式文件系统。 所有的运算都是基于HDFS文件的,它的核心关键词有:主从NameNode VS DataNode. -----------其中...

强子哥哥
2014/11/15
290
0

没有更多内容

加载失败,请刷新页面

加载更多

MBTI助你成功,让你更了解你自己

MBTI助你成功,让你更了解你自己 生活总是一个七日接着又一个七日,相信看过第七日的小伙伴,很熟悉这段开场白,人生是一个测试接着又一个测试,上学的时候测试,是为了证明你的智力,可谓从...

蛤蟆丸子
今天
55
0
Android实现App版本自动更新

现在很多的App中都会有一个检查版本的功能。例如斗鱼TV App的设置界面下: 当我们点击检查更新的时候,就会向服务器发起版本检测的请求。一般的处理方式是:服务器返回的App版本与当前手机安...

shzwork
昨天
72
0
npm 发布webpack插件 webpack-html-cdn-plugin

初始化一个项目 npm init 切换到npm源 淘宝 npm config set registry https://registry.npm.taobao.org npm npm config set registry http://registry.npmjs.org 登录 npm login 登录状态......

阿豪boy
昨天
87
0
java基础(16)递归

一.说明 递归:方法内调用自己 public static void run1(){ //递归 run1(); } 二.入门: 三.执行流程: 四.无限循环:经常用 无限递归不要轻易使用,无限递归的终点是:栈内存溢出错误 五.递...

煌sir
昨天
63
0
REST接口设计规范总结

URI格式规范 URI中尽量使用连字符”-“代替下划线”_”的使用 URI中统一使用小写字母 URI中不要包含文件(脚本)的扩展名 URI命名规范 文档(Document)类型的资源用名词(短语)单数命名 集合(Co...

Treize
昨天
69
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部