spark sql 总结

一.概述

1.前世今生

  • 大量数据需要处理 ➡️ MapReduce出现
  • sql on mr ➡️ Hive
  • mr效率太低 ➡️ Tez
  • Tez效率低 ➡️ Spark
  • sql on spark ➡️ Shark(太多的的借鉴了Hive制约了它,然后被推翻了,现在已经被弃用)
  • sql on spark ➡️ SparkSql

2.简介

  • Spark SQL是Spark处理数据的一个模块
  • 专门用来处理结构化数据的模块,像json,parquet,avro,csv,普通表格数据等均可。
  • 与基础RDD的API不同,Spark SQL中提供的接口将提供给更多关于结构化数据和计算的信息,并针对这些信息,进行额外的处理优化。

3.操作方式

  • SparkSql shell
    • 类似于hive shell
  • DataFrames API
    • 最早专为sql on spark设计的数据抽象,与RDD相似,增加了数据结构scheme描述信息部分。
    • 写spark代码,面向DF(DataFrams缩写)编程,可以与其它Spark应用代码无缝集成。
    • 比RDD更丰富的算子,更有利于提升执行效率、减少数据读取、执行计划优化。
  • DataSets API
    • 集成了RDD强类型和DataFrames结构化的优点,官方正强力打造的新数据抽象类型。
    • 写spark代码,面向DS编程,可以与其它Spark应用代码无缝集成。
    • 比RDD更丰富的算子,更有利于提升执行效率、减少数据读取、执行计划优化。
    • 面向程序接口对接的操作:通过JDBC、ODBC等方式操作SparkSql,通过jdbc、odbc链接后,发送相关的sparksql请求,实现基于sparksql功能开发。

4.特点

  • 可以利用SQL、DataFrams API、DataSets API或其它语言调用的基于sparksql模块计算,均是sparkcore执行引擎,其对计算的表达是独立的,即开发人员可以轻松在不同API之间切换实现相同的功能。
  • 也可以通过命令行、JDBC、ODBC的方式来操作SparkSQL,方便其它数据平台、BI平台使用SparkSql模块。
  • 在spark应用程序开发中,可以无缝使用SparkSql操作数据。
  • 可以直接使用Hive表格数据。
  • 与Hive的兼容性极好:它复用了Hive的前端(去掉驱动mapreduce执行任务的部分)和元数据,因此可以拿过来hivesql的东西在sparksql上运行即可。
  • SparkSql的应用中,sql是一个重要方面,但不局限制sql。

5.SparkSql愿景

  • 写更少的代码
  • 读更少的数据
  • 把优化的工作交由底层的优化器运行,也是就小白和高手写出来的代码执行效率一样

二.相关名词解释

  • SQL
    • 数据查询语言,面向数据编程的最高抽象
  • HQL = Hive Sql
    • sql on hadoop
  • Shark
    • 最早发展的sql on spark项目,已废弃
  • SparkSql
    • spark on sql 首先

三.shell 操作sparksql

  • 进入环境
    • 直接输入spark-sql
    • 指定运行模式 spark-sql local[*]
    • 类似hive -e 输入spark-sql -e “spark-sql code”
  • 操作
    • 与hive类似

四.DataFrames操作sparksql

1.项目创建

首先根据模板创建一个scala项目
模板:

group:net.alchim31.maven
artifact: scala-archetype-simple
version: 1.7
repository:https://maven.aliyun.com/repository/central

2.配置项目

  • 根目录创建路径null/bin,然后将winutils.exe在这里
  • 导入必要的依赖,并修改scala版本
  <properties>
    <maven.compiler.source>1.8</maven.compiler.source>
    <maven.compiler.target>1.8</maven.compiler.target>
    <encoding>UTF-8</encoding>
    <scala.version>2.11.11</scala.version>
    <scala.compat.version>2.11</scala.compat.version>
    <spec2.version>4.2.0</spec2.version>
  </properties>    

	<!--scala依赖-->
    <dependency>
      <groupId>org.scala-lang</groupId>
      <artifactId>scala-library</artifactId>
      <version>${scala.version}</version>
    </dependency>

    <!--sparkcore依赖 -->
    <dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-core_${scala.compat.version}</artifactId>
      <version>2.3.2</version>
      <scope>provided</scope>
    </dependency>

    <!--sparksql依赖-->
    <dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-sql_${scala.compat.version}</artifactId>
      <version>2.3.2</version>
      <scope>provided</scope>
    </dependency>

    <!--log4j-->
    <dependency>
      <groupId>org.apache.logging.log4j</groupId>
      <artifactId>log4j</artifactId>
      <version>2.14.1</version>
    </dependency>
  • 在main下创建目录resouces目录,并将log4j的配置文件放入

3.代码编写

3.1DataFrames1.6

package com.antg.main

import org.apache.spark.sql.SQLContext
import org.apache.spark.{SparkConf, SparkContext}

object DataFrames1_6 {
  def main(args: Array[String]): Unit = {
    //创建sparkconf
    val conf = new SparkConf()
    conf.setMaster("local")
    conf.setAppName("测试DF1.6")
    //创建上下文环境
    val sc = new SparkContext(conf)
    //创建sql上下文
    val sqlContext = new SQLContext(sc)
    //读取数据
    val df = sqlContext.read.json("C:\\Users\\Administrator\\Desktop\\data.json")
    //显示全部信息
    df.show()
    //关闭上下文
    sc.stop()
  }
}

3.2Dataframes2.3

package com.antg.main

import org.apache.spark.sql.SparkSession

object DataFrames2_3 {
  def main(args: Array[String]): Unit = {
    //创建session
    val sparkSession =  SparkSession.builder()
      .master("local[*]")
      .appName("dataframes2.3")
      .getOrCreate()
    //创建df
    val df = sparkSession.read.json("C:\\Users\\Administrator\\Desktop\\data.json")

    //虚表
    val vrTable = df.createTempView("vrTable")

    sparkSession.sql("select * from vrTable").show()

    //数据持久化
    df.repartition(2).write.format("parquet").save("./data")

    //关闭
    sparkSession.stop()

  }
}

3.3rdd转换成df

package com.antg.main

import org.apache.spark.sql.{Row, SparkSession}
import org.apache.spark.sql.types.{StringType, StructField, StructType}

object RDD_DF {
  def main(args: Array[String]): Unit = {
    var sparkSession = SparkSession.builder()
      .appName("test_rdd to df")
      .master("local[*]")
      .getOrCreate()

    var scheme = StructType(
      "stdno name classId className".split(" ").map(t => StructField(t,StringType,true))
    )
    var lineRDD = sparkSession.sparkContext.textFile("C:\\Users\\Administrator\\Desktop\\student_mysql.txt")
    var rowRDD = lineRDD.map(_.split("\t")).map(row => Row(row(0),row(1),row(2),row(3)))
    var df = sparkSession.createDataFrame(rowRDD,scheme)
    df.show()
    df.printSchema()
    sparkSession.stop()
  }
}

五.parquet数据格式

  • 概述
    • spark 默认的输入输出格式,spark自带的格式,也是强力推荐的格式
  • 产生背景
    • 面向分析型业务的列式存储格式
    • 由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache*项目.
    • Twitter的日志结构是复杂的嵌套数据类型,需要设计一种列式存储格式,既能支持关系型数据(简单数据类型),又能支持复杂的嵌套类型的数据,同时能够适配多种数据处理框架。
  • 优点
    • 压缩数据,内部自带gzip压缩
    • 不失真
    • 减少IO吞吐量
    • 高效的查询
    • 多数据处理平台,均支持parquet,包括hive等。

六.DataSet 操作sparksql

  • 环境搭建
    • 与DataFrames一样
  • 概述
    • DataSet集成了RDD和DataFrame的优点,也称为强类型的DataFrame。
    • DataSets和DataFrames具有完全相同的成员函数。
    • 两者中,每个行的数据类型不同。DataFrame也可以叫Dataset[Row],即DataFrame是Dataset的一种特定形式。而DataSet的每一行是不固定的,需要模式匹配来确定。
  • 版本说明
    • 1.6 版本的时候为测试版本,好多API还不是很丰富
    • 在2.0.0开始DataSet得到正式推广使用,由于其API和DataFrame在成员函数中完全对等,在使用上差异极小,由于是强类型,故仅在数据集case class模式匹配时,有明显差别。
  • 例子
package com.antg.main

import org.apache.spark.sql.SparkSession
case class Student(name:String,age:BigInt)
object TestDS {
  def main(args: Array[String]): Unit = {
    //创建Session
    val sparkSession = SparkSession.builder()
      .appName("ds test")
      .master("local[*]")
      .getOrCreate()
    //引入自动隐式转换
    import sparkSession.implicits._

    //使用基础数据类型创建DataSet
    val a = Seq(1,2,3).toDS()

    //使用DataSet
    a.map(_+1).collect.foreach(println)
    a.show()

    //使用样例类创建DS
    val b = Seq(Student("tom",22)).toDS()
    b.show()

    //通过导入文件创建,并使用样例类指定DS的格式
    val path = "C:\\Users\\Administrator\\Desktop\\student_data.txt"
    val c = sparkSession.read.json(path).as[Student]
    c.show()
    //由于是强类型,所以这里可以很方便的操作ds中的内容
    c.foreach(x=>println(x.age))
  }
}

student_data.txt

{"name":"张一","age":10,"address":"国际庄"}
{"name":"张二","age":20}
{"name":"张三","age":30}
{"name":"张四","age":40}

七.各个数据集的对比分析

  • spark数据集
    • RDD
    • DataFrames
    • DataSet
  • 相同点
    • 全都是spark平台下的分布式弹性数据集,为处理超大型数据提供便利
    • 三者都是惰性机制,只有遇到Action算子时才会提交作业
    • 有许多共同的函数,如map、filter、sort等。
  • 不同点
    • RDD
      • 不支持sparkSql操作
      • 机器间通信,IO操作均需要序列化和反序列化,性能开销比较大
    • DataFrames
      • 有scheme的RDD,比RDD增加了数据的描述信息
      • 支持sparkSql操作
      • 序列化和反序列化的时候做了结构化优化,减少了不必要的结构化信息,提高了效率
      • 这个是只有固定类型(ROW)的DataSet
    • DataSet
      • 强类型的DataFrames
      • 序列化与反序列化的时候,引入了Encoder机制,达到了按需序列化和反序列化,不必像之前那样整个对象操作了,进一步提高了效率
  • 每个数据类型的应用场景
    • RDD
      • 数据非结构化,如流媒体等
      • 对数据集进行底层的转换、处理、控制
      • 不需要列式处理,而是通过常规的对象.属性来使用数据。
    • DataFrames(必须使用)
      • R或是python语言开发者,使用DF
    • DataSet()必须使用)
      • 在编译时就有高度的类型安全,想要有类型的JVM对象,用上Catalyst优化,并得益于Tungsten生成的高效代码
    • 使用DF、DS场景
      • 需要丰富的语义、高级抽象和特定领域专用的API时
      • 处理需要对半结构化数据进行高级处理,如filter、map、aggregation、average、sum、SQL查询、列式访问或使用lambda函数
      • 在不同的Spark库之间使用一致和简化的API
上一篇:机器学习在房屋价格预测上的应用


下一篇:Python三剑客Day4练习题