运行Spark提供的计算圆周率的示例程序

原创
2017/07/19 10:04
阅读数 804

1、启动Spark服务

        因为spark是依赖于hadoop提供的分布式文件系统的,所以在启动spark之前,先确保hadoop在正常运行。

        在hadoop正常运行的情况下,在master(也就是hadoop的namenode,spark的marster节点)上执行命令:

 cd  /usr/local/spark/spark-2.1.1-bin-hadoop2.7/sbin

 执行启动脚本

 ./start-all.sh

2、计算圆周率

这里只是简单的用local模式运行一个计算圆周率的Demo。按照下面的步骤来操作。

      第一步,进入到Spark的根目录,也就是执行下面的脚本:

cd    /usr/local/spark/spark-2.1.1-bin-hadoop2.7

第二步,调用Spark自带的计算圆周率的Demo,执行下面的命令:

 ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master local examples/jars/spark-examples_2.11-2.1.1.jar

 命令执行后,spark示例程序已经开始执行

 如图: 

注意:上面只是使用了单机本地模式调用Demo,使用集群模式运行Demo,请参考该博文

http://blog.csdn.net/pucao_cug/article/details/72453382

展开阅读全文
打赏
0
0 收藏
分享
加载中
更多评论
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部