文档章节

HDFS安装

Porco
 Porco
发布于 2014/11/23 22:48
字数 1289
阅读 21
收藏 0

1.系统环境

  1. 安装java(大于1.6版本)

  2. 安装ssh和rsync,并且启动ssh服务

  3. 下载hadoop包,用编译后的包,地址:http://www.apache.org/dyn/closer.cgi/hadoop/common/

    

环境说明:

  1. Linux发行版:centos6.5(64位,hadoop新版的只提供了64位包)

  2. Hadoop版本:2.5.1

  3. Java版本:1.7.0.67

  4. 设置了3个虚拟机,host为namenode(192.168.59.103),datanode1(192.168.59.104)和datanode2(192.168.59.105)

2.配置SSH

    1.生成ssh key(namenode机器和datanode机器都是需要进行下面配置)

  1. $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
    $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
    $ chmod 644 authorized_keys #该步骤在centos需要,在ubuntu是可以不用的

    2.通过下面命令,如果可以直接登陆,说明免密码登录已经设置成功。

  1. $ ssh localhost

    3.在2台datanode机器同样生成自动登陆的ssh key,并将namenode的id_dsa.pub到datanode1和datanode2的.ssh的目录下面

  1. # 在namenode的机器,根目录下面的.ssh
    $ scp id_dsa.pub hadoop@datanode1:~/.ssh/id_dsa.pub.namenode
    $ scp id_dsa.pub hadoop@datanode2:~/.ssh/id_dsa.pub.namenode
    # 在datanode1和datanode2的.ssh目录下面
    $ cat id_dsa.pub.namenode >> authorized_keys

    4.验证是否能通过ssh无密码登录到dataname1和datanode2,出现标红的说明配置成功。

  1. [hadoop@namenode .ssh]$ ssh datanode1
    Last login: Sun Nov 30 11:03:52 2014 from 192.168.59.103
    [hadoop@datanode1 ~]$ exit
    logout
    Connection to datanode1 closed.
    [hadoop@namenode .ssh]$ ssh datanode2
    Last login: Sun Nov 30 11:03:15 2014 from localhost.localdomain
    [hadoop@datanode2 ~]$ exit
    logout
    Connection to datanode2 closed.


3.配置基础环境变量

     分别在namenode,datanode1和datanode2根目录下面的.bash_profile配置下面内容:

  1. # java环境变量
    export JAVA_HOME=/home/hadoop/local/jdk
    export PATH=$JAVA_HOME/bin:$PATH
    export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
    # hadoop环境变量
    export HADOOP_DEV_HOME=/home/hadoop/local/hadoop
    export PATH=$PATH:$HADOOP_DEV_HOME/bin
    export PATH=$PATH:$HADOOP_DEV_HOME/sbin
    export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME}
    export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME}
    export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME}
    export YARN_HOME=${HADOOP_DEV_HOME}
    export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
    export HDFS_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
    export YARN_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
    export CLASSPATH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH
    export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

    配置完成之后,需要重新登陆来加载环境变量(或者通过source ~/.bash_profile);通过下面的命令可以查看环境变量是否配置正常。

  1. [hadoop@namenode ~]$ java -version
    java version "1.7.0_67"
    Java(TM) SE Runtime Environment (build 1.7.0_67-b01)
    Java HotSpot(TM) 64-Bit Server VM (build 24.65-b04, mixed mode)
    [hadoop@namenode ~]$ hadoop
    Usage: hadoop [--config confdir] COMMAND
    where COMMAND is one of:
    fs run a generic filesystem user client
    version print the version
    jar <jar> run a jar file
    checknative [-a|-h] check native hadoop and compression libraries availability
    distcp <srcurl> <desturl> copy file or directories recursively
    archive -archiveName NAME -p <parent path> <src>* <dest> create a hadoop archive
    classpath prints the class path needed to get the
    Hadoop jar and the required libraries
    daemonlog get/set the log level for each daemon
    or
    CLASSNAME run the class named CLASSNAME
    Most commands print help when invoked w/o parameters.

4.配置hadoop

  在namenode配置完成之后直接scp到其他datanode即可,这样可以保证机器配置的一致性。

  1. $ cd ~/local/hadoop/etc/hadoop

   所有的配置文件都在这里。

   打开hadoop-env.sh,配置jdk环境变量:

  1. # 将export JAVA_HOME=${JAVA_HOME}替换为
    export JAVA_HOME=/home/hadoop/local/jdk

    配置yarn-env.sh:

  1. # export JAVA_HOME=/home/y/libexec/jdk1.6.0/ 去掉注释,并且替换为下面内容
    export JAVA_HOME=/home/hadoop/local/jdk

    配置slave文件(hdfs的datanode机器配置):

  1. [hadoop@namenode hadoop]$ cat slaves
    namenode
    datanode1
    datanode2

    配置core-site.xml(hadoop的核心策略配置文件)

  1. [hadoop@namenode hadoop]$ cat core-site.xml
    <?xml version="1.0" encoding="UTF-8"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
    <property>
    <name>fs.default.name</name>
    <value>hdfs://namenode:9000</value>
    </property>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/hadoop/tmp</value>
    <description>A base for other temporary directories.</description>
    </property>
    </configuration>

    配置hdfs-site.xml(hdfs的策略配置文件):

  1. <configuration>
    <property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>namenode:9001</value>
    </property>
    <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/home/hadoop/hadoop/name</value>
    </property>
    <property>
    <name>dfs.datanode.data.dir</name>  
            <value>file:/home/hadoop/hadoop/data</value>
    </property>  
        <property>
    <name>dfs.replication</name>  
            <value>2</value>
    <description>storage copy number</description>
    </property>
    <property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
    </property>
    </configuration>

到此,整个hdfs的分布式文件系统就配置完成,把上面的hadoop-env.sh,yarn-env.sh,core-site.xml,hdfs-site.xml同步到datanode的机器上面。

5.启动服务

通过下面命令进行操作

  1. [hadoop@namenode hadoop]$ cd /home/hadoop/local/hadoop
    [hadoop@namenode hadoop]$ bin/hdfs namenode -format
    [hadoop@namenode hadoop]$ sbin/start-dfs.sh

第二个命令是为格式化整个hdfs的namenode节点,格式化之后会在配置的hadoop的name下面出现下面目录结构

  1. [hadoop@namenode hadoop]$ tree name
    name
    ├── current
    │   ├── edits_inprogress_0000000000000000001
    │   ├── fsimage_0000000000000000000
    │   ├── fsimage_0000000000000000000.md5
    │   ├── seen_txid
    │   └── VERSION
    └── in_use.lock

在这个目录中,有2个重要的文件:fsimage和edits。

    其中fsimage镜像文件包含了整个HDFS文件系统的所有目录和文件的indoe信息。对于文件来说包括了数据块描述信息、修改时间、访问时间等;对于目录来说包括修改时间、访问权限控制信息(目录所属用户,所在组等)等。

    另外,edit文件主要是在NameNode已经启动情况下对HDFS进行的各种更新操作进行记录,HDFS客户端执行所有的写操作都会被记录到edit文件中。

启动dfs之后,从我们配置的data目录可以看见下面目录结果

[hadoop@namenode hadoop]$ tree data
data
├── current
│   ├── BP-441758184-192.168.59.103-1417330891399
│   │   ├── current
│   │   │   ├── finalized
│   │   │   ├── rbw
│   │   │   └── VERSION
│   │   ├── dncp_block_verification.log.curr
│   │   └── tmp
│   └── VERSION
└── in_use.lock

执行put命令之后,可以看到一个文件在data中是如何存储的。如下:

  1. $ hadoop fs -put etc/hadoop/core-site.xml /data/input
    [hadoop@namenode hadoop]$ tree data
    data
    ├── current
    │   ├── BP-441758184-192.168.59.103-1417330891399
    │   │   ├── current
    │   │   │   ├── finalized
    │   │   │   │   ├── blk_1073741827
    │   │   │   │   └── blk_1073741827_1003.meta
    │   │   │   ├── rbw
    │   │   │   │   ├── blk_1073741825
    │   │   │   │   ├── blk_1073741825_1001.meta
    │   │   │   │   ├── blk_1073741826
    │   │   │   │   └── blk_1073741826_1002.meta
    │   │   │   └── VERSION
    │   │   ├── dncp_block_verification.log.curr
    │   │   ├── dncp_block_verification.log.prev
    │   │   └── tmp
    │   └── VERSION
    └── in_use.lock

Finalized:完成状态

Rbw(Replica Being Written to): 等待写入状态

    


© 著作权归作者所有

共有 人打赏支持
上一篇: HDFS Namenode
下一篇: HDFS Namenode
Porco
粉丝 3
博文 2
码字总数 1680
作品 0
广州
程序员
私信 提问
第 4 章 Hypertable

目录 4.1. Hypertable 安装 4.2. Code examples 4.3. HQL 4.4. FAQ http://hypertable.org/ 单机:安装于单机,采用本地文件系统 Hadoop:分布式安装,使用Hadoop(HDFS)作为存储 MapR:分布式...

玄学酱
01/05
0
0
第 37 章 Hypertable

目录 37.1. Hypertable 安装 37.2. Code examples 37.3. HQL 37.4. FAQ http://hypertable.org/ 单机:安装于单机,采用本地文件系统 Hadoop:分布式安装,使用Hadoop(HDFS)作为存储 MapR:分...

玄学酱
01/04
0
0
Ranger-Hdfs插件安装

Ranger-Hdfs插件ranger-0.6.0-hdfs-plugin安装到Hdfs的所有NameNode节点, 其他的DataNode节点不需要安装。 1. 登陆hdfs安装的用户,hdfs/zdh1234(用户组hadoop),获取安装包解压安装 tar –z...

木木与呆呆
04/26
0
0
将Elasticsearch的快照备份到HDFS

1、安装Elasticsearch插件repository-hdfs 下载地址:https://artifacts.elastic.co/downloads/elasticsearch-plugins/repository-hdfs/repository-hdfs-6.2.3.zip 将zip包放在/usr/local下 ......

缤纷世界wb
03/21
0
0
八步教你在笔记本电脑创建Hadoop本地实例!

  【IT168 评论】要想进入大数据领域,Hadoop是一件非常重要的事情,它具有复杂的安装过程,大量的集群,数百台机器以及TB(或者PB)级别的数据等。但实际上,用户可以下载简单的JAR并在个人...

it168网站
05/25
0
0

没有更多内容

加载失败,请刷新页面

加载更多

局域网共享文件读写的实现方式

首先是设置共享目录,支持用户和密码等权限控制 然后我们可以使用Windows资源管理器操作共享目录下的文件 这中间隐藏了资源管理器帮我们建立目录映射和连接的过程,如果设置了用户名和密码,...

夏至如沫
18分钟前
2
0
Elasticsearch安装与配置

一、Docker安装ES 开发模式 可以使用以下命令快速启动Elasticsearch以进行开发或测试: $ docker run -p 9200:9200 -p 9300:9300 -d --name es -e "discovery.type=single-node" docker.ela...

吴伟祥
24分钟前
1
0
移动页面滚动穿透解决方案(荐)

移动页面滚动穿透解决方法目前有多种解决方案,我介绍下几种方案: 解决方案1:阻止冒泡。 //关键代码$(".sliders,.modals").on("touchmove",function(event){    event.preventDefau...

壹峰
24分钟前
0
0
调用infura实现java项目调用智能合约

https://infura.io/dashboard 注册一个帐号 添加一个project 可选择主网或者其他网络,然后复制地址放进pom.xml中 复制智能合约地址复制到pom.xml中 复制任意一个帐号的private key到pom.xml...

八戒八戒八戒
32分钟前
3
0
vue+koa2+token 登录验证

https://segmentfault.com/a/1190000017379244?utm_source=weekly&utm_medium=email&utm_campaign=email_weekly...

Js_Mei
35分钟前
3
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部