文档章节

Ubuntu16.04 下 Spark2.0.2+Hadoop2.7.3+Zookeeper3.4.9+HBase1.1.7集群环境搭建--4

品不懂
 品不懂
发布于 2016/12/08 14:15
字数 395
阅读 35
收藏 0

接着上篇:https://my.oschina.net/u/988386/blog/802045

接着上篇:https://my.oschina.net/u/988386/blog/802052

接着上篇:https://my.oschina.net/u/988386/blog/802063

下面安装spark

     安装spark要先安装scala。

  • 安装spark(2台机器配置基本相同)
#!/bin/bash
#环境变量文件
PATH_FILE="/etc/profile"
#安装包路径
SCALA_TAR="/home/hdp/Downloads/scala-2.11.8.tgz"
SCALA_INSTALL_HOME="/usr/local"
#安装包路径
SPARK_TAR="/home/hdp/Downloads/spark-2.0.2-bin-hadoop2.7.tgz"
SPARK_INSTALL_HOME="/usr/local"

#安装scala

if [ -d $SCALA_INSTALL_HOME/scala ] 
then
    sudo rm -rf $SCALA_INSTALL_HOME/scala
fi

#解压scala
sudo tar -zxvf $SCALA_TAR -C $SCALA_INSTALL_HOME

#修改文件名称
sudo mv $SCALA_INSTALL_HOME/scala-2.11.8 $SCALA_INSTALL_HOME/scala

#将scala的所有者修改为hadoop
sudo chown -R hadoop $SCALA_INSTALL_HOME/scala


#设置环境变量
if [ -z $SCALA_HOME ]  
then 
	sudo echo "export SCALA_HOME=\"$SCALA_INSTALL_HOME/scala\"" >> $PATH_FILE
	sudo echo "export PATH=\"\${SCALA_HOME}/bin:\$PATH\"" >> $PATH_FILE
	#刷新环境变量
	source /etc/profile
fi

#安装spark

if [ -d $SPARK_INSTALL_HOME/spark ] 
then
    sudo rm -rf $SPARK_INSTALL_HOME/spark
fi

#解压spark
sudo tar -zxvf $SPARK_TAR -C $SPARK_INSTALL_HOME

#修改文件名称
sudo mv $SPARK_INSTALL_HOME/spark-2.0.2-bin-hadoop2.7 $SPARK_INSTALL_HOME/spark

#将spark的所有者修改为hadoop
sudo chown -R hadoop $SPARK_INSTALL_HOME/spark

#设置环境变量
if [ -z $SPARK_HOME ]  
then 
	sudo echo "export SPARK_HOME=\"$SPARK_INSTALL_HOME/spark\"" >> $PATH_FILE
	sudo echo "export PATH=\"\${SPARK_HOME}/bin:\$PATH\"" >> $PATH_FILE
	#刷新环境变量
	source /etc/profile
fi

 

  • 配置spark-env.sh,在文件后面加入下列内容:

            注意路径

  • export JAVA_HOME=/usr/lib/jvm/java
    export SCALA_HOME=/usr/local/scala
    export HADOOP_HOME=/usr/local/hadoop
    export YARN_HOME=/usr/local/hadoop
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    export YARN_CONF_DIR=$YARN_HOME/etc/hadoop
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SCALA_HOME/bin
    export SPARK_MASTER_IP=d155
    export SPARK_LOCAL_DIRS=/usr/local/spark
    export SPARK_LIBARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native
    

    配置slaves文件。加入一行

  • d156

    启动停止  ./sbin/start-all.sh     ./sbin/stop-all.sh

        检查状态

       浏览器输入  http://d155:8080/

 

 

 

 

 

 

 

 

 

 

 

 

 

© 著作权归作者所有

共有 人打赏支持
品不懂
粉丝 2
博文 5
码字总数 2660
作品 0
闸北
程序员
私信 提问
图像识别——ubuntu16.04 movidius VPU NCSDK深度学习环境搭建

这篇文章本人不打算长篇累牍去写,结合以前写的文章,从软件角度去写一些点滴,伴随人工智能AI的火爆,现在图像识别算法也异常火爆,上一篇文章提到Intel movidius Myriad 2 VPU(MA2450)是一...

桐烨科技
2018/08/06
0
0
(一)超详细纯手工搭建kubernetes(k8s)集群 - 预先准备环境

初衷 自从kubernetes(k8s)出现以来,安装复杂、部署困难就一直被业内吐槽,同时也把很多初学者挡在门外。虽然官方也有专门用来入门的单机部署方案:Minikube,和用来搭建集群的Kubeadm,但国...

店家小二
2018/12/14
0
0
centos7 安装kubernetes1.4(kubeadm版)

使用kubeadm快速搭建k8s集群(单master,HA 的功能仍然在开发中) NOTE: 2016/10/09 :添加release版yum源,上传rpm包,避免翻墙,补全之前未添加的镜像,完善文档 2016/11/11 :删除hub.docke...

战狐
2016/09/30
0
0
关于wordpress主题、插件上传和下载问题及其上传图片权限问题解决方案

主题官方下载地址:https://wordpress.org/themes/ 插件官方下载地址: https://wordpress.org/plugins/ 主题的上传下载,无疑是需要ftp服务器的。还有插件的上传和下载也是一样的道理。 ftp的...

youcongtech
2018/07/27
0
0
ubuntu16.04搭建Kubernetes集群

版权声明:本文为博主原创文章,转载请注明来源。开发合作联系luanpenguestc@sina.com https://blog.csdn.net/luanpeng825485697/article/details/82950742 每个主机切换到root用户 1、设置主...

数据架构师
2018/10/06
0
0

没有更多内容

加载失败,请刷新页面

加载更多

Linux Wireshark普通用户启动使用方案

当系统安装好Wireshark后请正常启动是否可以进行正常使用,如果不行请参考下列指导 向系统添加一个用户组 sudo groupadd wireshark //如提示此组存在可跳过 将指定用户添加到这个组中 sudo...

CHONGCHEN
今天
1
0
CSS 选择器参考手册

CSS 选择器参考手册 选择器 描述 [attribute] 用于选取带有指定属性的元素。 [attribute=value] 用于选取带有指定属性和值的元素。 [attribute~=value] 用于选取属性值中包含指定词汇的元素。...

Jack088
今天
2
0
数据库篇一

数据库篇 第1章 数据库介绍 1.1 数据库概述  什么是数据库(DB:DataBase) 数据库就是存储数据的仓库,其本质是一个文件系统,数据按照特定的格式将数据存储起来,用户可以对数据库中的数据...

stars永恒
今天
4
0
Intellij IDEA中设置了jsp页面,但是在访问页面时却提示404

在Intellij IDEA中设置了spring boot的jsp页面,但是在访问时,却出现404,Not Found,经过查找资料后解决,步骤如下: 在Run/Debug Configurations面板中设置该程序的Working Directory选项...

uknow8692
昨天
4
0
day24:文档第五行增内容|每月1号压缩/etc/目录|过滤文本重复次数多的10个单词|人员分组|

1、在文本文档1.txt里第五行下面增加如下内容;两个方法; # This is a test file.# Test insert line into this file. 分析:给文档后增加内容,可以用sed 来搞定;也可以用while do done...

芬野de博客
昨天
4
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部