08 学生课程分数的Spark SQL分析

读学生课程分数文件chapter4-data01.txt,创建DataFrame。

08 学生课程分数的Spark SQL分析

 

 

 08 学生课程分数的Spark SQL分析

 

 

 08 学生课程分数的Spark SQL分析08 学生课程分数的Spark SQL分析

 

 

 

08 学生课程分数的Spark SQL分析

 

 

 08 学生课程分数的Spark SQL分析

用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比:

  • 每个分数+5分。
  • 08 学生课程分数的Spark SQL分析
  • 总共有多少学生? 
  • 08 学生课程分数的Spark SQL分析
  • 总共开设了哪些课程?
  • 08 学生课程分数的Spark SQL分析
  • 每个学生选修了多少门课?
  • 08 学生课程分数的Spark SQL分析
  • 每门课程有多少个学生选?
  • 08 学生课程分数的Spark SQL分析
  • 每门课程大于95分的学生人数?
  • 08 学生课程分数的Spark SQL分析
  • Tom选修了几门课?每门课多少分?
  • 08 学生课程分数的Spark SQL分析
  • Tom的成绩按分数大小排序。
  • 08 学生课程分数的Spark SQL分析
  • Tom的平均分。
  • 08 学生课程分数的Spark SQL分析
  • 求每门课的平均分,最高分,最低分。
  • 08 学生课程分数的Spark SQL分析

     

  • 08 学生课程分数的Spark SQL分析

     

     

  • 08 学生课程分数的Spark SQL分析

     

     

  • 求每门课的选修人数及平均分,精确到2位小数。
  • 08 学生课程分数的Spark SQL分析
  • 每门课的不及格人数,通过率
  • 结果可视化。

 

from pyspark.sql.types import IntegerType, StringType, StructField, StructType

fields = [StructField(...), ...]

schema = StructType(fields)

 类型:http://spark.apache.org/docs/latest/sql-ref-datatypes.html 

from pyspark.sql import Row

data = rdd.map(lambda p: Row(...))

 

Spark SQL DataFrame 操作

df.show()

df.printSchema()

df.count()

df.head(3)

df.collect()

df[‘name’]

df.name

df.first().asDict()

df.describe().show()

df.distinct()

df.filter(df['age'] > 21).show()

df.groupBy("age").count().show()

df.select('name', df['age‘] + 1).show()

df_scs.groupBy("course").avg('score').show()

 df_scs.agg({"score": "mean"}).show()

df_scs.groupBy("course").agg({"score": "mean"}).show()

 函数:http://spark.apache.org/docs/2.2.0/api/python/pyspark.sql.html#module-pyspark.sql.functions 

 

上一篇:pyspark 入门


下一篇:Python 算法交易实验34 实时数据获取