运行Spark提供的计算圆周率的示例程序

1、启动Spark服务

因为spark是依赖于hadoop提供的分布式文件系统的,所以在启动spark之前,先确保hadoop在正常运行。

在hadoop正常运行的情况下,在master(也就是hadoop的namenode,spark的marster节点)上执行命令:

cd  /usr/local/spark/spark-2.1.1-bin-hadoop2.7/sbin

执行启动脚本

./start-all.sh

2、计算圆周率

这里只是简单的用local模式运行一个计算圆周率的Demo。按照下面的步骤来操作。

第一步,进入到Spark的根目录,也就是执行下面的脚本:

cd    /usr/local/spark/spark-2.1.1-bin-hadoop2.7

第二步,调用Spark自带的计算圆周率的Demo,执行下面的命令:

./bin/spark-submit --class org.apache.spark.examples.SparkPi --master local examples/jars/spark-examples_2.11-2.1.1.jar

命令执行后,spark示例程序已经开始执行

如图:

运行Spark提供的计算圆周率的示例程序

注意:上面只是使用了单机本地模式调用Demo,使用集群模式运行Demo,请参考该博文

http://blog.csdn.net/pucao_cug/article/details/72453382

上一篇:ROS 安装完成后运行小乌龟示例程序


下一篇:java编程思想-java中的并发(三)