文档章节

0000 0000 、Hadoop 环境搭建

BlueAnt007
 BlueAnt007
发布于 2017/06/24 23:12
字数 1151
阅读 6
收藏 0

一、安装JDK

在linux命令行中,先敲入 命令 来查看系统上是否有安装 jak

javac

如果 没有 ,我们就要安装JDK
ubuntu下

apt-get install openjdk-7-jdk

centOS下

yum install *jdk-7*

安装完成后,我们开始配置jdk 的环境变量

 打开 /etc/profile  进行修改,添加以下信息【注意 安装目录可能会有所不同】
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

保存, 输入命令 生效

source /etc/profile

二、 配置hadoop

1 下载hadoop 安装包
      【
                由于库中没有,我们使用源来下载 :  http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
       】
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
   我们把这个压缩包一到/opt/目录下
mv hadoop-1.2.1.tar.gz /opt/
  来到 /opt/目录下后  我们解压缩
tar -zxvf hadoop-1.2.1.tar.gz

2 打开解压缩的目录进行配置
我们要配置的文件 在conf 目录下,要配置的有4个文件

1) 打开 hadoop-env.sh 文件,配置 JAVA_HOME 的更新, 要和上文中配置的环境变量 JAVA_HOME 一致
【指定Hadoop要用的JDK 环境变量,守护进程JDK 选项,pid文件和log文件夹】

vim hadoop-env.sh //进行配置

2) 打开 core-site.xml 文件,
【指定与Hadoop守护进程和客户端相关参数的XML文件】【主要配置 】

<configuration>
<!-- 设置hadoop的工作目录 -->
<property>
     <name>hadoop.tmp.dir</name>
     <value>/hadoop</value>
</property>

<!-- fs.default.name - 这是一个描述集群中NameNode结点的URI(包括协议、主机名称、端口号),集群里面的每一台机器都需要知道NameNode的地址。DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表。-->
<property>
     <name>fs.default.name</name>
     <value >hdfs://localhost:9000</value>     <!-- 这里 localhost 应填写当前主机的hostname, 请根据现实情况进行配置,这里我配置为本地-->
</property>

</configuration>

3) 打开hdfs-site.xml
【指定HDFS守护进程和客户端要用的参数的XML文件】【主要配置 】

<configuration>
<!-- 配置文件系统的数据存放目录 -->
<property>
     <name>dfs.daya.dir</name>
     <value >/hadoop/data</value>
</property>

</configuration>
4)打开mapred-site.xml
 【指定MapReduce守护进程和客户端要用的参数的XML文件 】【主要配置 】
<configuration>
<!-- 设置HDFS中每个Block块被复制的次数 -->
<property>
     <name>dfs.replication</name>
     <value>1</value>
</property>

<!-- 设置将HDFS文件系统的元信息的保存目录 -->
<property>
     <name>dfs.name.dir</name>
     <value>/hadoop/name</value>
</property>

<!-- 配置任务调度器的访问 -->
<property>
     <name>mapred.job.tracker</name>
      <value>localhost:9001</value >
</property>

</configuration>

下面是其他配置文件的说明
log4j.properties
【一个包含所有日志配置信息的java属性文件】

 masters
 【在新行中列出运行 次NameNode 的机器,只会被satrt-*。sh类的脚本调用】

 slavers
 【在新行中列出运行DataNode / tasktracker进程对的服务器名,只会被satrt-*。sh类的脚本调用】

 fair-scheduler
 【用来指定资源库,设置MapRduce的Fari Scheduler 任务调度器插件】

 capacity-scheduker
 【曾经用来指定MaoReduce Caoacity Scheduler 任务调度插件的队列和设置】

 dfs.include
 【在新行中列出允许连接NameNode的服务器名】

 hadoop-policy
 【用来定义和Hadoop通信时,哪个用户和哪个组允许调用指定的RPC功能的XML文件】

 mapred-queue-acls
 【定义哪个用户和哪个组被允许提交作业到哪个MapReduce作业队列的XML文件】

 taskcontroller.cfg
 【类似于Java属性风格的文件,定义了在安全模式下操作时所用到的MapReduce辅助程序 setuid task-controller 要用的值】

5)配置hadoop的环境变量,打开/etc/profile 文件进行添加HADOOP的安装路径 配置,配置完成后,使它生效
export HADOOP_HOME=/opt/hadoop-1.2.1
在PATH 里面加入了 :$HADOOP_HOME/bin

#让配置生效

 source /etc/profile

3 对namenode 进行格式化操作

hadoop namenode -format

输入 :start-all.sh 命令后可能会出现 【root@localhost’s password:localhost:permission denied,please try again 错误】
解决方案,使用试试免密登录,设置收重新 格式化 namenode ,start-all

设置ssh 免密,移步下面这篇博客
http://www.cnblogs.com/qiangweikang/p/4740936.html

4 使用 jps 查看前所有java进程pid的,如果有以下进程, 说明我们的hadoop启动成功

jps是JDK 1.5提供的一个显示当前所有java进程pid的命令,简单实用,非常适合在linux/unix平台上简单察看当前java进程的一些简单情况。
这里写图片描述
这里写图片描述
这里写图片描述
小结

1) 在Linux中安装JDK, 并设置环境变量
2)下载Hadoop,并设置Hadoop的环境变量
3)修改Hadoop的配置文件

© 著作权归作者所有

共有 人打赏支持
BlueAnt007
粉丝 5
博文 10
码字总数 13003
作品 0
东城
程序员
Mar 13 15:42:51 hadoop01 kernel: Command line: BOOT_IMAGE=/vmlinuz-3.10.0-514.10.2.el7.x86_64 root=/dev/mapp

journalctl -- Logs begin at Mon 2017-03-13 15:42:51 CST, end at Wed 2017-03-15 14:26:15 CST. -- Mar 13 15:42:51 hadoop01 systemd-journal[105]: Runtime journal is using 8.0M (max......

sca7
2017/03/15
99
0
KVM虚拟化笔记(六)------kvm虚拟机的克隆

kvm虚拟机的克隆分为两种情况:kvm主机本机虚拟机直接克隆和通过复制配置文件与磁盘文件的虚拟机复制克隆。接下来我们一一进行测试: (一)kvm主机虚拟机的直接克隆 1,查看虚拟机的配置文件...

科技小能手
2017/11/12
0
0
玩转大数据-如何搭建Hbase集群

对于全分布式的HBase安装,需要通过hbase-site.xml文档来配置本机的HBase特性,由于各个HBase之间通过zookeeper来进行通信,因此需要维护一组zookeeper系统,关于zookeeper的安装使用,参考《...

丁小晶
2016/08/16
0
0
kvm在线扩展根目录/空间

一、添加磁盘 物理机上操作: 1.1、创建磁盘 1.2、 给虚拟机添加磁盘 1.3、 虚拟机上检查磁盘 grep -i disk Disk /dev/sda: 53.7 GB, 53687091200 bytes Disk identifier: 0x0007c952 Disk ...

哓竹
2016/07/16
34
0
centos6.2 64 部署docker

centos6.2 64 部署docker 安装docker yum源: yum install http://mirrors.yun-idc.com/epel/6/i386/epel-release-6-8.noarch.rpm [root@yz6245 yum.repos.d]# yum install docker-io Loaded......

Wilson9527
2016/09/23
0
0

没有更多内容

加载失败,请刷新页面

加载更多

你为什么在Redis里读到了本应过期的数据

一个事故的故事 晚上睡的正香突然被电话吵醒,对面是开发焦急的声音:我们的程序在访问redis的时候读到了本应过期的key导致整个业务逻辑出了问题,需要马上解决。 看到这里你可能会想:这是不...

IT--小哥
今天
2
0
祝大家节日快乐,阖家幸福! centos GnuTLS 漏洞

yum update -y gnutls 修复了GnuTLS 漏洞。更新到最新 gnutls.x86_64 0:2.12.23-22.el6 版本

yizhichao
昨天
5
0
Scrapy 1.5.0之选择器

构造选择器 Scrapy选择器是通过文本(Text)或 TextResponse 对象构造的 Selector 类的实例。 它根据输入类型自动选择最佳的解析规则(XML vs HTML): >>> from scrapy.selector import Sele...

Eappo_Geng
昨天
4
0
Windows下Git多账号配置,同一电脑多个ssh-key的管理

Windows下Git多账号配置,同一电脑多个ssh-key的管理   这一篇文章是对上一篇文章《Git-TortoiseGit完整配置流程》的拓展,所以需要对上一篇文章有所了解,当然直接往下看也可以,其中也有...

morpheusWB
昨天
5
0
中秋快乐!!!

HiBlock
昨天
3
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部