package big.data.analyse.dataSet import scala.collection.immutable.{TreeMap, TreeSet}
import scala.collection.mutable._
/**
* Created by zhen on 2018/11/18.
*/
object List_Set_Map {
def main(args: Array[String]) {
/**
* List基本操作
*/
println(List.range(1, 5))
println(List.range(9, 1, -2)) val zipped = "abcde".toList zip List(1, 2, 3, 4)
println(zipped)
println(zipped.unzip) println(List(List('a', 'b'), List('c'), List('d', 'e')).flatten)
println(List.concat(List(), List('b'), List('c'))) println((1 to 100).foldLeft(0)(_+_)) // 计算从1加到100
println((0 /: (1 to 100))(_+_))// 同上 println((1 to 6).foldRight(100)(_+_)) //倒序运算
println(((1 to 6):\100)(_-_)) println(List(1, -6, 2) sortWith(_<_)) //自定义排序
/**
* Set基本添加,删除操作
*/
val set = Set.empty[Int]
set ++= List(1, 2, 6, 8) // 添加多条数据
set += 7 // 添加单条数据
set --= Set(1, 2) // 删除多条数据
println(set)
/**
* TreeSet基本操作,自带排序
*/
val treeSet = TreeSet(6, 2, 1, 4, 9, 3)
println(treeSet)
/**
* Map基本添加,删除操作
*/
val map = Map.empty[String, String]
val add = Map.empty[String, String]
add("Java") = "Hadoop"
add("Python") = "Numpy"
map("Scala") = "Spark" // 添加单条数据
map ++= add // 添加多条数据
println(map)
/**
* TreeMap,自带排序
*/
val treeMap = TreeMap("Scala" -> "Spark", "Java" -> "Hadoop")
println(treeMap)
}
}
结果: