val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1,2,3,4))
/**
* ➢ 函数签名
def reduce(f: (T, T) => T): T
➢ 函数说明
聚集 RDD 中的所有元素,先聚合分区内数据,再聚合分区间数据
*/
val i: Int = rdd.reduce(_+_)
println(i)
sc.stop()
2、collect()
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1,2,3,4))
/**
*➢ 函数签名
def collect(): Array[T]
➢ 函数说明
在驱动程序中,以数组 Array 的形式返回数据集的所有元素
collect : 方法会将不同分区的数据按照分区顺序采集到Driver端内存中,形成数组
*/
val ints: Array[Int] = rdd.collect()
println(ints.mkString(","))
sc.stop()
3、count()
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1,2,3,4))
/**
* ➢ 函数签名
def count(): Long
➢ 函数说明
返回 RDD 中元素的个数
count : 数据源中数据的个数
*/
val cnt = rdd.count()
println(cnt)
sc.stop()
4、first()
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator")
val sc = new SparkContext(sparkConf)
val rdd = sc.makeRDD(List(1,2,3,4))
**
* ➢ 函数签名
def first(): T
➢ 函数说明
返回 RDD 中的第一个元素
first : 获取数据源中数据的第一个
*/
val first = rdd.first()
println(first)
sc.stop()
5、take(num:Int)
/**
* ➢ 函数签名
def take(num: Int): Array[T]
➢ 函数说明
返回一个由 RDD 的前 n 个元素组成的数组
take : 获取N个数据
*/
val ints: Array[Int] = rdd.take(3)
println(ints.mkString(","))