spark学习二

RDD学习

 

1 RDD概念

spark学习二

1.1 定义

RDD(Resilient Distributed Datasets), 是一个容错的, 并行的数据结构, 可以让用户显式地将数据存储到磁盘和内存中, 并能控制数据的分区.

同时, RDD 还提供了一组丰富的操作来操作这些数据. 在这些操作中, 诸如 map, flatMap, filter 等转换操作实现了 Monad 模式, 很好地契合了 Scala 的集合操作. 除此之外, RDD 还提供了诸如 join, groupBy, reduceByKey 等更为方便的操作, 以支持常见的数据运算.

通常来讲, 针对数据处理有几种常见模型, 包括: Iterative Algorithms, Relational Queries, MapReduce, Stream Processing. 例如 Hadoop MapReduce 采用了 MapReduce 模型, Storm 则采用了 Stream Processing 模型. RDD 混合了这四种模型, 使得 Spark 可以应用于各种大数据处理场景.

RDD 作为数据结构, 本质上是一个只读的分区记录集合. 一个 RDD 可以包含多个分区, 每个分区就是一个 DataSet 片段.

RDD 之间可以相互依赖, 如果 RDD 的每个分区最多只能被一个子 RDD 的一个分区使用,则称之为窄依赖, 若被多个子 RDD 的分区依赖,则称之为宽依赖. 不同的操作依据其特性, 可能会产生不同的依赖. 例如 map 操作会产生窄依赖, 而 join 操作则产生宽依赖.

1.2 特点

  1. RDD 是一个编程模型

    1. RDD 允许用户显式的指定数据存放在内存或者磁盘

    2. RDD 是分布式的, 用户可以控制 RDD 的分区

  2. RDD 是一个编程模型

    1. RDD 提供了丰富的操作

    2. RDD 提供了 map, flatMap, filter 等操作符, 用以实现 Monad 模式

    3. RDD 提供了 reduceByKey, groupByKey 等操作符, 用以操作 Key-Value 型数据

    4. RDD 提供了 max, min, mean 等操作符, 用以操作数字型的数据

  3. RDD 是混合型的编程模型, 可以支持迭代计算, 关系查询, MapReduce, 流计算

  4. RDD 是只读的

  5. RDD 之间有依赖关系, 根据执行操作的操作符的不同, 依赖关系可以分为宽依赖和窄依赖

2 RDD分区

spark学习二

分为两个大部分

2.1 存储

文件如果存放在 HDFS 上, 是分块的, 类似上图所示, 这个 wordcount.txt 分了三块

2.2 计算

Spark 不止可以读取 HDFS, Spark 还可以读取很多其它的数据集, Spark 可以从数据集中创建出 RDD

例如上图中, 使用了一个 RDD 表示 HDFS 上的某一个文件, 这个文件在 HDFS 中是分三块, 那么 RDD 在读取的时候就也有三个分区, 每个 RDD 的分区对应了一个 HDFS 的分块

后续 RDD 在计算的时候, 可以更改分区, 也可以保持三个分区, 每个分区之间有依赖关系, 例如说 RDD2 的分区一依赖了 RDD1 的分区一

RDD 之所以要设计为有分区的, 是因为要进行分布式计算, 每个不同的分区可以在不同的线程, 或者进程, 甚至节点中, 从而做到并行计算

3 创建RDD

创建程序入口

val conf = new SparkConf().setMaster("local[6]") val sc = new SparkContext(conf)

3.1 通过本地集合直接创建 RDD

def rddCreateLocal(): Unit ={ val seq=Seq(1,2,3) val rdd1=sc.parallelize(seq,2) sc.parallelize(seq) val rdd2=sc.makeRDD(seq,2) }

3.2 通过读取外部文件创建 RDD

def rddCreateFiles(): Unit ={ val rdd1 = sc.textFile("hdfs://node01:8020/spark/data/wordcount.txt") val rdd2 = sc.textFile("dataset/wordcount.txt") }

3.3 通过其它的 RDD 衍生新的 RDD

def rddCreateFromRDD(): Unit ={ val seq=Seq(1,2,3) val rdd1=sc.parallelize(seq) val rdd2=rdd1.map(item=>item) }

4 RDD算子

4.1 Map算子

spark学习二

def mapTest(): Unit ={ val seq=Seq(1,2,3) val result=sc.parallelize(seq) .map(item=>item*10) .collect() result.foreach(item=>println(item)) }

4.2 FlatMap算子

spark学习二

def flatMapTest(): Unit ={ val result=sc.parallelize(Seq("Hello lity","Hello tim")) .flatMap(item=>item.split(" ")) .collect() result.foreach(item=>println(item)) }

map 和 flatMap 算子都是转换, 只是 flatMap 在转换过后会再执行展开, 所以 map 是一对一, flatMap 是一对多

4.3 ReduceByKey算子

spark学习二

def reduceByKeyTest(): Unit ={ val result=sc.parallelize(Seq("Hello lity","Hello tim")) .flatMap(item=>item.split(" ")) .map(item=>(item,1)) .reduceByKey((curr,agg)=>curr+agg) .collect() result.foreach(item=>println(item)) }

reduceByKey 类似 MapReduce 中的 Reduce

 

转载自:https://www.cnblogs.com/MoooJL/p/14249315.html

上一篇:TCP协议三次握手四次挥手


下一篇:3.3(Linux基础)VM操作和Linux文件传输