我有一个Spark数据框,看起来如下:
+-----------+-------------------+
| ID | features |
+-----------+-------------------+
| 18156431|(5,[0,1,4],[1,1,1])|
| 20260831|(5,[0,4,5],[2,1,1])|
| 91859831|(5,[0,1],[1,3]) |
| 206186631|(5,[3,4,5],[1,5]) |
| 223134831|(5,[2,3,5],[1,1,1])|
+-----------+-------------------+
在此数据框中,features列是稀疏向量.在我的脚本中,我必须将此DF作为文件保存在磁盘上.这样做时,功能部件列另存为文本列:例如“(5,[0,1,4],[1,1,1])”.
如您所料,当再次在Spark中导入时,该列将保留字符串.如何将列转换回(稀疏)矢量格式?
解决方法:
由于UDF开销不是特别有效(使用保留类型的格式是一个好主意),但是您可以执行以下操作:
from pyspark.mllib.linalg import Vectors, VectorUDT
from pyspark.sql.functions import udf
df = sc.parallelize([
(18156431, "(5,[0,1,4],[1,1,1])")
]).toDF(["id", "features"])
parse = udf(lambda s: Vectors.parse(s), VectorUDT())
df.select(parse("features"))
请注意,这不会直接移植到2.0.0和ML Vector.由于ML向量不提供解析方法,因此您必须解析为MLLib并使用asML:
parse = udf(lambda s: Vectors.parse(s).asML(), VectorUDT())