08 学生课程分数的Spark SQL分析

一. 读学生课程分数文件chapter4-data01.txt,创建DataFrame。

1.生成“表头”

08 学生课程分数的Spark SQL分析08 学生课程分数的Spark SQL分析08 学生课程分数的Spark SQL分析08 学生课程分数的Spark SQL分析

2.生成“表中的记录”

08 学生课程分数的Spark SQL分析

08 学生课程分数的Spark SQL分析

3.把“表头”和“表中的记录”拼装在一起

08 学生课程分数的Spark SQL分析

用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比:

  • 每个分数+5分。
    • df_scs.select('name','cource',df_scs['score']+5).show()
    • 08 学生课程分数的Spark SQL分析
  • 总共有多少学生?
    • df_scs.select('name').distinct().count()
    • 08 学生课程分数的Spark SQL分析
  • 总共开设了哪些课程?
    • df_scs.select('cource').distinct().show()
    • 08 学生课程分数的Spark SQL分析
  • 每个学生选修了多少门课?
    • df_scs.groupBy('name').count().show()
    • 08 学生课程分数的Spark SQL分析
  • 每门课程有多少个学生选?
    • df_scs.groupBy('cource').count().show()
    • 08 学生课程分数的Spark SQL分析
  • 每门课程大于95分的学生人数?
    • df_scs.filter(df_scs['score']>95).groupBy('cource').count().show()
    • 08 学生课程分数的Spark SQL分析
  • Tom选修了几门课?每门课多少分?
    • df_scs.filter(df_scs['name']=='Tom').select('cource','score').show()
    • 08 学生课程分数的Spark SQL分析
  • Tom的成绩按分数大小排序。
    • df_scs.filter(df_scs['name']=='Tom').sort(df_scs['score'].desc()).show()
    • 08 学生课程分数的Spark SQL分析
  • Tom的平均分
    • df_scs.filter(df_scs['name']=='Tom').groupBy('cource').avg('score').show()

    • 08 学生课程分数的Spark SQL分析
  • 求每门课的平均分,最高分,最低分。
    • df_scs.groupBy("cource").avg('score').show()
    • df_scs.groupBy("cource").max('score').show()
    • df_scs.groupBy("cource").min('score').show()
    • 08 学生课程分数的Spark SQL分析
    • 08 学生课程分数的Spark SQL分析
    •  08 学生课程分数的Spark SQL分析

  • 求每门课的选修人数及平均分,精确到2位小数。
    • df_scs.select(countDistinct('name').alias('学生人数'),countDistinct('cource').alias('课程数'),round(mean('score'),2).alias('所有课的平均分').alias('所有课的平均分')).show()
    • 08 学生课程分数的Spark SQL分析
上一篇:pandas分组聚合基本操作


下一篇:python pandas dataframe 实现mysql group_contact功能