文档章节

Hadoop + HBase + Hive 完全分布式部署笔记

互动互
 互动互
发布于 2017/05/10 15:46
字数 885
阅读 4
收藏 0

 

完全分布式Hadoop + HBase + Hive 部署过程的的一些问题。

NameNode: 192.168.229.132

DataNode: 192.168.229.133/192.168.229.134

 

--------------------------------------------------------------------------------

配置 Hadoop

无密码SSH

首先是NameNode需要通过ssh来访问DataNode,配置一个无密码的ssh

NameNode上生成公钥私钥

$ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

把公钥放到tmp目录,并且scp到每一个DataNode

$cp ~/.ssh/id_dsa.pub /tmp

在NameNode和DataNode都执行这个,完成配置

$cat /tmp/id_dsa.pub >> ~/.ssh/authorized_keys

 

配置文件 (其中涉及到的目录会自动创建)

conf/hadoop-env.sh

# The Java implementation to use.  Required. 
export JAVA_HOME=/usr/jdk1.6.0_25

 

conf/core-site.xml  (如果要使用Hive,就需要把红色的IP改成主机名,否则会有Wrong FS错误)

<configuration> 
  <property> 
    <!-- 用于dfs命令模块中指定默认的文件系统协议 --> 
    <name>fs.default.name</name> 
    <value>hdfs://192.168.229.132:9000</value> 
  </property> 
   <!-- 设置一个比较小的日志尺寸 --> 
  <property> 
    <name>hadoop.logfile.size</name> 
    <value>10</value> 
  </property>  
</configuration>

 

conf/hdfs-site.xml

<configuration> 
  <property> 
    <!-- DFS中存储文件命名空间信息的目录 --> 
    <name>dfs.name.dir</name> 
    <value>/u01/app/data/dfs.name.dir</value> 
  </property> 
  <property> 
    <!-- DFS中存储文件数据的目录 --> 
    <name>dfs.data.dir</name> 
    <value>/u01/app/data/dfs.data.dir</value> 
  </property> 
</configuration>

 

conf/mapred-site.xml

<configuration> 
  <property> 
    <!-- 用来作JobTracker的节点的(一般与NameNode保持一致) --> 
    <name>mapred.job.tracker</name> 
    <value>192.168.229.132:9001</value> 
  </property> 
  <property> 
    <!-- map/reduce的系统目录(使用的HDFS的路径) --> 
    <name>mapred.system.dir</name> 
    <value>/u01/app/data/mapred.system.dir</value> 
  </property> 
  <property> 
    <!-- map/reduce的临时目录(可使用“,”隔开,设置多重路径来分摊磁盘IO) --> 
    <name>mapred.local.dir</name> 
    <value>/u01/app/data/mapred.local.dir</value> 
  </property> 
</configuration>

 

主从配置

conf/masters

192.168.229.132

conf/slaves

192.168.229.133

192.168.229.134

 

在NameNode进行了所有的配置之后,通过scp把hadoop安装目录同步到DataNode。然后在NameNode进行格式化和启动。

 

--------------------------------------------------------------------------------

配置 Hbase

$vi /etc/hosts (HBase使用机器名称,在hosts里面必须配置集群里面的机器) 
127.0.0.1    localhost 
192.168.229.132    ubuntu02 
192.168.229.133    ubuntu03 
192.168.229.134    ubuntu04

 

conf/hbase-env.sh (这里)

# The Java implementation to use.  Java 1.6 required. 
export JAVA_HOME=/usr/jdk1.6.0_25

# Extra Java CLASSPATH elements.  Optional. 
export HBASE_CLASSPATH=/u01/app/hadoop/conf

# Tell HBase whether it should manage it's own instance of Zookeeper or not. 
export HBASE_MANAGES_ZK=true

 

conf/hbase-site.xml (红色部分必须使用主机名称,其他部分可以使用IP)

<configuration> 
  <property> 
    <name>hbase.rootdir</name> 
    <value>hdfs://ubuntu02:9000/u01/app/data/hbase</value> 
  </property> 
  <property> 
    <name>hbase.cluster.distributed</name> 
    <value>true</value> 
  </property> 
  <property>  
    <name>hbase.master</name>  
    <value>hdfs://192.168.229.132:60000</value>  
  </property>  
  <property> 
    <name>hbase.zookeeper.quorum</name> 
    <value>192.168.229.132, 192.168.229.133, 192.168.229.134</value> 
  </property> 
</configuration>

 

conf/regionservers (和Hadoop的slaves文件一致) 
192.168.229.133 
192.168.229.134

 

通过scp把hbase安装目录同步到DataNode

 

----------------------------------------------------------------------------------------------

配置 Hive

 

MySQL存储元数据 (安装过程见这里

创建数据库的时候,必须使用latin1作为字符集,否则会有错误信息Specified key was too long; max key length is 767 bytes

mysql> create database hivedb default character set latin1; 
mysql> create user 'hive'@'localhost' identified by 'hive'; 
mysql> grant all on hivedb.* to 'hive'@'localhost';

 

 

Hive 配置信息 (Hive仅需要在Master节点安装配置即可)

bin/hive-config.sh (可以设置 .profile 文件来略过这步) 
export JAVA_HOME=/usr/jdk1.6.0_25 
export HIVE_HOME=/u01/app/hive 
export HADOOP_HOME=/u01/app/hadoop

 

conf/hive-site.xml 
<property> 
  <name>javax.jdo.option.ConnectionURL</name>  
  <value>jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true</value> 
  <description>JDBC connect string FOR a JDBC metastore</description> 
</property> 
<property>  
  <name>javax.jdo.option.ConnectionDriverName</name>  
  <value>com.mysql.jdbc.Driver</value> 
  <description>Driver class name FOR a JDBC metastore</description> </property> 
<property>  
  <name>javax.jdo.option.ConnectionUserName</name>  
  <value>hive</value> 
  <description>username TOUSE against metastore database</description> 
</property> 
<property> 
  <name>javax.jdo.option.ConnectionPassword</name>  
  <value>hive</value> 
  <description>password TOUSE against metastore database</description> 
</property>

MySQL 驱动包

下载mysql-connector-java-5.1.18-bin.jar文件,并放到$HIVE_HOME/lib目录下

 

测试

hadoop@ubuntu02:/u01/app/hive$ bin/hive 
Logging initialized using configuration in jar:file:/u01/app/hive-0.8.1-bin/lib/hive-common-0.8.1.jar!/hive-log4j.properties 
Hive history file=/tmp/hadoop/hive_job_log_hadoop_201203201733_2122821776.txt 
hive> show tables; 
OK 
tb 
Time taken: 2.458 seconds 
hive>

:更多干货趣味内容,欢迎大家点击 http://activity.cloudin.cn/进去页面,然后点击博客,和我一起交流分享沟通。

© 著作权归作者所有

共有 人打赏支持
互动互
粉丝 0
博文 7
码字总数 9032
作品 0
东城
运营/编辑
Hive Hbase区别 整理

Hive是为了简化编写MapReduce程序而生的,使用MapReduce做过数据分析的人都知道,很多分析程序除业务逻辑不同外,程序流程基本一样。在这种情况下,就需要Hive这样的用戶编程接口。Hive本身不...

李超
2015/04/17
0
0
关于学习Hadoop中未总结的资料

1)Cygwin相关资料   (1)Cygwin上安装、启动ssh服务失败、ssh localhost失败的解决方案   地址:http://blog.163.com/pwcrab/blog/static/16990382220107267443810/   (2)windows...

Carl_
2015/06/25
0
0
Hadoop、Pig、Hive、Storm、NoSQL 学习资源收集【Updating】

(一)hadoop 相关安装部署 1、hadoop在windows cygwin下的部署: http://lib.open-open.com/view/1333428291655 http://blog.csdn.net/ruby97/article/details/7423088 http://blog.csdn.n......

大数据之路
2013/06/25
0
3
一文让您全面了解清楚HBase数据库的所有知识点,值得收藏!

欢迎关注大数据和人工智能技术文章发布的微信公众号:清研学堂,在这里你可以学到夜白(作者笔名)精心整理的笔记,让我们每天进步一点点,让优秀成为一种习惯! 一、HBase基本概念:列式数据...

李金泽
03/04
0
0
HIVE和HBASE之间,主要的区别是什么?

  【IT168 评论】Apache Hive是一个构建在hadoop基础设施之上的数据仓库。通过Hive可以使用HQL语言查询存放在HDFS上的数据。HQL是一种类SQL语言,这种语言最终被转化为Map/Reduce. 虽然Hiv...

中国大数据
05/18
0
0

没有更多内容

加载失败,请刷新页面

加载更多

学hadoop需要什么基础

最近一段时间一直在接触关于hadoop方面的内容,从刚接触时的一片空白,到现在也能够说清楚一些问题。这中间到底经历过什么只怕也就是只有经过的人才会体会到吧。前几天看到有个人问“学hadoo...

左手的倒影
33分钟前
1
0
LOADING Redis is loading the dataset in memory

Redis出现错误 LOADING Redis is loading the dataset in memory 原因1:redis中dump.rdb文件到达3G时,所有redis的操作都会抛出此异常。解决方法:redis.conf中 maxmemory 调大。 原因2:另...

swingcoder
33分钟前
0
0
闪屏页设置

相信每个app都需要一个闪屏页 就是一个开始页面 对于新手来说 可能就直接一个activity 弄个背景图片 ,细心地同学也许会发现 每次启动 应用程序的时候 一开始显示的不是那个设置的背景图片 ...

王先森oO
38分钟前
1
0
解析Excel

import java.io.File;import java.io.FileInputStream;import java.io.IOException;import java.io.InputStream;import java.util.ArrayList;import java.util.List;import or......

开源中国封号找我
43分钟前
0
0
pandas不能在pycharm中使用plot()方法显示图像的解决方法

最近用了pycharm,感觉还不错,就是pandas中Series、DataFrame的plot()方法不显示图片就给我结束了,但是我在ipython里就能画图 以前的代码是这样的 import matplotlib.pyplot as pltfrom p...

kipeng300
46分钟前
1
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部