前言
今天介绍利用 StreamingPro 构建流式(Spark Streaming)计算程序
准备工作
- 下载StreamingPro
我们假设您将文件放在了/tmp目录下。
填写配置文件
- 实例一,Nginx日志解析后存储到ES
- 测试样例, 模拟数据,并且单机跑起来
假设你使用的是第二个配置文件,名字叫做test.json,并且放在了/tmp目录下。
启动StreamingPro
Local模式:
cd $SPARK_HOME
./bin/spark-submit --class streaming.core.StreamingApp \
--master local[2] \
--name test \
/tmp/streamingpro-0.2.1-SNAPSHOT-dev-1.6.1.jar \
-streaming.name test \
-streaming.job.file.path file:///tmp/test.json
访问
http://127.0.0.1:4040
可进入Spark UI
集群模式:
cd $SPARK_HOME
./bin/spark-submit --class streaming.core.StreamingApp \
--master yarn-cluster \
--name test \
/tmp/streamingpro-0.2.1-SNAPSHOT-dev-1.6.1.jar \
-streaming.name test \
-streaming.job.file.path hdfs://cluster/tmp/test.json
这里需要注意的是,配置文件并蓄放到HDFS上,并且需要带上hdfs前缀。这是一个标准的Spark 批流式处理程序
文/祝威廉(简书作者)
原文链接:http://www.jianshu.com/p/d10edd6c7cf9
著作权归作者所有,转载请联系作者获得授权,并标注“简书作者”。