Spark Streaming揭秘 Day27 Job产生机制

Spark Streaming揭秘 Day27

Job产生机制

今天主要讨论一个问题,就是除了DStream action以外,还有什么地方可以产生Job,这会有助于了解Spark Streaming的本质。

我们从一个print方法触发,来看一下常用的action操作方式:

传统流程

一般来说,产生Job需要DStream的action操作,比如print方法

第一步,在print方法中,返回了一个ForeachDStream

Spark Streaming揭秘 Day27 Job产生机制

第二步,在ForeachDStream中,通过被DStreamGraph调用generateJob方法,构造了运行的Job,但此时Job并未被调用。

Spark Streaming揭秘 Day27 Job产生机制

第三步,在JobGenerator中,执行Job中的内容。

Spark Streaming揭秘 Day27 Job产生机制

例外流程

是不是只有在foreachRDD之类outputDStream的操作中才能产生Job的执行? 让我们来看下transform这个方法。这个方法对当前DStream上的RDD执行某种操作,以RDD为输入,产生一个新的RDD。

请看一下这个方法中compute方法的实现:

transformFunc是构造时传进来的,这个方法在这里会执行,也就说,在这里我们可以进行任意操作,包括执行Job!!!

Spark Streaming揭秘 Day27 Job产生机制

也就是说,如果在调用transform方法的transformFunc里有action的操作,就会绕过上述传统流程的第三步,精简为两步来执行Job。这个方法的本意是提供一些DStream不支持的操作,但实际是个后门。

这个方法灵活性很高,可以让我们提前获得结果,这个意义是很大的,使用这个特性可以做出一些很巧妙的效果。直接调用意味着每一步都能直接获取结果,那么就可以基于前面的结果进行判断,然后进行后面的操作,比如如下操作。

lines.transform( rdd => {
if (rdd.count > 0) {
sqc.jsonRDD(rdd).registerTempTable("logstash")
val sqlreport = sqc.sql("SELECT message, COUNT(message) AS host_c, AVG(lineno) AS line_a FROM logstash WHERE path = '/var/log/system.log' AND lineno > 70 GROUP BY message ORDER BY host_c DESC LIMIT 100")
sqlreport.map(r => (r(0).toString -> Status(r(2).toString.toDouble, r(1).toString.toInt)))
} else {
rdd.map(l => ("" -> Status()))
}
})

很明显,transform中的方法内容更为丰富,这个可以突破DStream上方法都是单一职责的限制。

欲知后事如何,且听下回分解!

DT大数据每天晚上20:00YY频道现场授课频道68917580

上一篇:Spark Tungsten in-heap / off-heap 内存管理机制--待整理


下一篇:hdu 1561 The more, The Better(树形dp,基础)