【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(1)

原创
2014/10/08 13:49
阅读数 513

第一步:构造分布式Hadoop2.2.0集群

1,在Windows 7(本教程中的Spark集群运行的机器是8G的Windows内存)上安装VMware虚拟机(我们安装的是VMware-workstation-full-9.0.2),本教程中的VMware Workstation下载地址:

       https://my.vmware.com/cn/web/vmware/details?downloadGroup=WKST-902-WIN&productId=293&rPId=3526

2,在VMvare中装三台Ubuntu机器(我们使用的是ubuntu-12.10-desktop-i386),每台机器分配2G的内存,本教程中Ubuntu下载地址:

http://www.ubuntu.org.cn/download/desktop/alternative-downloads

;font-� � l : ��E 0D �黑","sans-serif"'>

 

1,在Windows 7(本教程中的Spark集群运行的机器是8G的Windows内存)上安装VMware虚拟机(我们安装的是VMware-workstation-full-9.0.2),本教程中的VMware Workstation下载地址:

       https://my.vmware.com/cn/web/vmware/details?downloadGroup=WKST-902-WIN&productId=293&rPId=3526

3,分别在三台Ubuntu机器中设置root用户机器密码,以后每次登录的时候都是用root用户登录,具体设置方式如下:

  •  sudo  -s进入 root用户权限模式

  •  vim /etc/lightdm/lightdm.conf

[SeatDefaults]

greeter-session=unity-greeter

user-session=Ubuntu

greeter-show-manual-login=true

allow-guest=false   

  • 启动root帐号:
    sudo passwd root

三台机器修改后,再次登录系统的时候用root用户登录:

4,配置三台机器的/etc/hosts和/etc/hostname并安装ssh设置三台机器之间的无密码登录,具体步骤可参考Spark实战高手之路-第一章的第一节 http://t.cn/RPo13rO 和Spark实战高手之路第一章的第二节http://t.cn/RP9klmr 我们在“/etc/hostname”文件中把三台机器的hostname分别设置了SparkMaster、SparkWorker1、SparkWorker2并在每台机器的“/etc/hosts”配置如下IP和机器名称的对应关系:

配置好三天机器相互通信的ssh后会发现三台机器可以相互使用ssh无密码登录:

5,在三台Ubuntu机器上安装Java,在这里我们使用的是jdk1.7.0_67(下载地址 http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html )

 具体的安装和配置方法请参考Spark实战高手之路-第一章的第一节 http://t.cn/RPo13rO

安装完成的可以验证一下:

三台Ubuntu机器分别出现上述信息就表明Java安装正确。

6,在SparkMaster这台机器上安装Hadoop 2.2.0,Hadoop 2.2.0的下载地址为:

http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.2.0/

我们下载的是“hadoop-2.2.0.tar.gz  ”,如下图所示:

 

展开阅读全文
打赏
0
2 收藏
分享
加载中
更多评论
打赏
0 评论
2 收藏
0
分享
返回顶部
顶部