sqarkSQL中的UDF用户自定义函数理解及应用

sqarkSQL中的UDF用户自定义函数理解及应用

sqarksql不是万能的有一些功能无法实现所以我们需要自定义函数
例如 sqarksql中的 concat_ws(",",“A”,“B”)=>将两个字段合并成一个字段中间用,隔开
输入一行返回一行的就叫做udf
输入一行返回多行的就叫做udtf
输入多行返回一行的就叫做udaf

例如需求:
你输入一个id让他给你返回一个省市区,
在sql中是无法实现的,我们可以将他封装成为一个函数,我们以后再调的时候我可以调自己封装好的函数就可以了
代码实现:
创建一个spark环境

val spark: SparkSession = SparkSession.builder().master("local[*]")
  .appName(this.getClass.getSimpleName)
  .getOrCreate()
  import spark.implicits._

创建一个list集合:

val tp: Dataset[(String, String)] = spark.createDataset(List(("aaa","bbb"),("aaa","ccc"),("aaa","ddd")))
val df: DataFrame = tp.toDF("f1","f2").show()
表格实现:
+---+---+
| f1| f2|
+---+---+
|aaa|bbb|
|aaa|ccc|
|aaa|ddd|
+---+---+

方式一:DSL风格创建一个df.selectExpr(“表达式”)

df.selectExpr("concat_ws('---',f1,f2) as f3").show()
代码实现:
+---------+
|       f3|
+---------+
|aaa---bbb|
|aaa---ccc|
|aaa---ddd|
+---------+

方式二:你如果想用df.select(concat_ws())你就必须导入spark中的sql函数

import org.apache.spark.sql.functions._
df.select(concat_ws("|||",$"f1",'f2)as "f3")
代码实现:
+---------+
|       f3|
+---------+
|aaa|||bbb|
|aaa|||ccc|
|aaa|||ddd|
+---------+

方式三:注册成视图写sql语句

 
    df.createTempView("data")
    spark.sql(
      """
        |
        |select
        |concat_ws("_",f1,f2)as da
        |from
        |data
        |
      """.stripMargin).show()
代码实现:
  +---------+
|       da|
+---------+
|aaa///bbb|
|aaa///ccc|
|aaa///ddd|
+---------+    

方式四:利用DUF的方法自定义函数

  首先先注册一个udf传入三个参数1.函数名字,2.需要传入的可变参数们
    spark.udf.register("Myconcat_ws",(s:String,a:String,b:String)=>{
      a+s+b+a+b+s
    })
    df.selectExpr("Myconcat_ws('/-/-/-/',f1,f2) as f3").show()
    代码实现:
  +--------------------------+
|f3                        |
+--------------------------+
|aaa/-/-/-/bbbaaabbb/-/-/-/|
|aaa/-/-/-/cccaaaccc/-/-/-/|
|aaa/-/-/-/dddaaaddd/-/-/-/|
+--------------------------+
    

    spark.stop()
  }
}
sqarkSQL中的UDF用户自定义函数理解及应用sqarkSQL中的UDF用户自定义函数理解及应用 北京小峻 发布了48 篇原创文章 · 获赞 11 · 访问量 1486 私信 关注
上一篇:udf提权


下一篇:Spark-UDF