PySpark把一列数据上下移动,时序数据

在Pandas中,我们用.shift()把数据框上下移动。

在 PySpark 中,确实存在一个类似于 Pandas 中 shift 函数的功能,它被称为 shiftleft 函数。这个函数用于将给定的值向左移动指定的位数。不过,这与 Pandas 中的 shift 函数有所不同,后者用于将数据在时间序列中上下移动。

PySpark 的 shiftleft 函数通常用于数值类型的列,并且是按位操作。例如,如果你有一个整数列,并且你想要将每个值的二进制表示向左移动一位,你可以使用 shiftleft 函数。

如果想在 PySpark 中实现类似于 Pandas shift 的功能,即将 DataFrame 中的行或列向上或向下移动,你可以使用 lag 或 lead 函数。这些函数允许你指定一个偏移量,用于获取前几行或后几行的值。

例如,使用 lag 函数来获取前一行的值:

from pyspark.sql import SparkSession
from pyspark.sql.functions import lag

# 创建 SparkSession
spark = SparkSession.builder.appName("example").getOrCreate()

# 创建一个 DataFrame
df = spark.createDataFrame([(1, 'a'), (2, 'b'), (3, 'c')], ["id", "label"])

# 使用 lag 函数来获取前一行的值
df_with_lag = df.withColumn("prev_label", lag("label", 1).over(Window.orderBy("id")))

df_with_lag.show()

±–±—±-----+
| id|label|prev_label|
±–±—±-----+
| 1| a| null|
| 2| b| a|
| 3| c| b|
±–±—±-----+

Spark SQL

在 Spark SQL 中,你可以使用 LAG 函数通过 SQL 语句来实现类似的功能。以下是如何使用 Spark SQL 来执行相同的操作:

from pyspark.sql import SparkSession

# 创建 SparkSession
spark = SparkSession.builder.appName("lag_example_sql").getOrCreate()

# 创建一个 DataFrame
data = [(1, 'a', 10), (2, 'b', 20), (3, 'c', 30), (4, 'd', 40)]
columns = ["id", "label", "value"]
df = spark.createDataFrame(data, columns)

# 创建一个临时视图
df.createOrReplaceTempView("example_table")

# 使用 Spark SQL 的 LAG 函数
lag_sql = """
SELECT id, label, value,
       LAG(value, 1) OVER (ORDER BY id) AS prev_value
FROM example_table
"""

# 执行 SQL 查询
df_with_lag = spark.sql(lag_sql)

# 显示结果
df_with_lag.show()

±–±—±----±-------+
| id|label|value|prev_value|
±–±—±----±-------+
| 1| a| 10| null|
| 2| b| 20| 10|
| 3| c| 30| 20|
| 4| d| 40| 30|
±–±—±----±-------+

我们定义了一个 SQL 查询字符串 lag_sql,它使用 LAG 函数来获取每一行之前一行的 value 值。

再举个例子。假设我们有一个销售数据表,我们想要计算每一天的销售额与前一天销售额的差异。

首先,我们创建一个包含日期和销售额的 DataFrame,然后使用 LAG 函数来获取前一天的销售额,并计算差异。

from pyspark.sql import SparkSession
from pyspark.sql.functions import col

# 创建 SparkSession
spark = SparkSession.builder.appName("lag_example_sql").getOrCreate()

# 创建一个 DataFrame,包含日期和销售额
data = [
    ("2024-01-01", 100),
    ("2024-01-02", 150),
    ("2024-01-03", 130),
    ("2024-01-04", 170),
    ("2024-01-05", 160)
]
columns = ["date", "sales"]
df = spark.createDataFrame(data, columns)

# 创建一个临时视图
df.createOrReplaceTempView("sales_data")

# 使用 Spark SQL 的 LAG 函数来计算销售额的差异
lag_sql = """
SELECT date,
       sales,
       LAG(sales, 1) OVER (ORDER BY date) AS prev_sales,
       sales - LAG(sales, 1) OVER (ORDER BY date) AS sales_diff
FROM sales_data
"""

# 执行 SQL 查询
df_lag = spark.sql(lag_sql)

# 显示结果
df_lag.show()

±-------±----±-----±--------+
| date|sales|prev_sales|sales_diff|
±-------±----±-----±--------+
|2024-01-01| 100| null| null|
|2024-01-02| 150| 100| 50|
|2024-01-03| 130| 150| -20|
|2024-01-04| 170| 130| 40|
|2024-01-05| 160| 170| -10|
±-------±----±-----±--------+

• 我们定义了一个 SQL 查询字符串 lag_sql,它使用 LAG 函数来获取每一行之前一行的 sales 值,并计算当前销售额与前一天销售额的差异。

上一篇:spark,poi,jar包冲突(commons.io)


下一篇:鸿蒙开发(NEXT/API 12)【硬件(振动开发1)】振动-开发步骤