spark streaming 1

package com.shujia.spark.streaming

import org.apache.spark.SparkConf
import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.{Durations, StreamingContext}

object Demo1WordCount {
  def main(args: Array[String]): Unit = {


    val conf: SparkConf = new SparkConf()
      .setAppName("streaming")
      .setMaster("local[2]")

    /**
      * 创建streaming上下文对象对象,指定batch时间,多久计算一次
      *
      */
    val ssc = new StreamingContext(conf, Durations.seconds(5))

    //设置checkpoint路径
    ssc.checkpoint("data/checkpoint")
    /**
      * ReceiverInputDStream:被动接收数据,将接收过来的数据放在内存或者磁盘上
      * 接收数据会一直占用资源,所以资源给多一点  local[2]
      *
      * nc -lk 8888
      * yum install nc (如果没有上述命令 ,安装  )
      */
    //读取数据
    val linesDS: ReceiverInputDStream[String] = ssc.socketTextStream("master", 8888)


    //统计单词数量
    val wordsDS: DStream[String] = linesDS.flatMap(_.split(","))
    val kvDS: DStream[(String, Int)] = wordsDS.map((_, 1))

    /**
      * reduceByKey:只统计当前batch的数据,不会进行累加计算
      */

    //    val countDS: DStream[(String, Int)] = kvDS.reduceByKey(_ + _)

    /**
      *
      * @param seq    :当前batch 每一个key所有的value
      * @param option : 之前batch累加计算的结果
      * @return : 返回最新的单词的数量
      */
    def updateFun(seq: Seq[Int], option: Option[Int]): Option[Int] = {

      //计算当前batch单词的数量
      val currCount: Int = seq.sum

      //获取之前单词的数量
      val lastCount: Int = option.getOrElse(0)

      //返回最新单词的数量
      Some(currCount + lastCount)

    }


    /**
      * 有状态算子
      * updateStateByKey:每一次计算更新每一个key的状态(单词的数量)
      *
      * 需要设置checkpoint的路径,用于保存计算中的状态
      */
  val countDS: DStream[(String, Int)] = kvDS.updateStateByKey(updateFun)

    //打印数据
    countDS.print()

    //启动streaming
    ssc.start()
    ssc.awaitTermination() //等待关闭    这三行代码必须要写
    ssc.stop()


  }
}

 

上一篇:Spark Streaming------window算子


下一篇:spark streaming 3 RDD To DS