原文链接:http://tecdat.cn/?p=23599
原文出处:拓端数据部落公众号
降维是在我们处理包含过多特征数据的大型数据集时使用的,提高计算速度,减少模型大小,并以更好的方式将巨大的数据集可视化。这种方法的目的是保留最重要的数据,同时删除大部分的特征数据。
在这个教程中,我们将简要地学习如何用Python中的稀疏和高斯随机投影以及PCA方法来减少数据维度。读完本教程后,你将学会如何通过使用这些方法来降低数据集的维度。本教程包括。
- 准备数据
- 高斯随机投影
- 稀疏随机投影
- PCA投影
- MNIST数据投射
准备数据
首先,我们将为本教程生成简单的随机数据。在这里,我们使用具有1000个特征的数据集。为了将维度方法应用于真实数据集,我们还使用Keras API的MNIST手写数字数据库。MNIST是三维数据集,这里我们将把它重塑为二维的。
- print(x.shape)
- mnist.load_data()
- print(x_train.shape)
- reshape(x_train,)
- print(x_mnist.shape)
高斯随机投影
高斯随机法将原始输入空间投射到一个随机生成的矩阵上降低维度。我们通过设置分量数字来定义该模型。在这里,我们将把特征数据从1000缩减到200。
- grp.fit_transform(x)
- print(gshape)
根据你的分析和目标数据,你可以设置你的目标成分。
稀疏随机投影
稀疏随机方法使用稀疏随机矩阵投影原始输入空间以减少维度。我们定义模型,设置成分的数量。在这里,我们将把特征数据从1000缩减到200。
- srp_data = srp.fit_transform(x)
- print(srp_data.shape)
根据你的分析和目标数据,你可以设置你的目标成分。
PCA投影
我们将使用PCA分解,通过设置成分数来定义模型。在这里,我们将把特征数据从1000缩减到200。
- pca.fit_transform(x)
- print(pca_data.shape)
根据你的分析和目标数据,你可以设置你的目标成分。
MNIST数据的投影
在使用高斯、稀疏随机和PCA方法学习降维后,现在我们可以将这些方法应用于MNIST数据集。为测试目的,我们将设置2个成分并应用投影。
- #对2个成分的稀疏随机投影
- srp.fit_transform(x_mnist)
- df_srp["comp1"] = z[:,0)
- df_srp["comp2"] = z[:,1] 。
- # 高斯随机投射在2个成分上
- fit_transform(x_mnist)
- # 对2个成分进行PCA
- PCA(n=2)
我们将通过可视化的方式在图中检查关于预测的结果。
- sns.scatterplot(x="comp-1", y="comp-2")
该图显示了MNIST数据的变化维度。颜色定义了目标数字和它们的特征数据在图中的位置。
在本教程中,我们已经简单了解了如何用稀疏和高斯随机投影方法以及Python中的PCA方法来减少数据维度。
最受欢迎的见解
1.matlab偏最小二乘回归(PLSR)和主成分回归(PCR)
2.R语言高维数据的主成分pca、 t-SNE算法降维与可视化分析
6.r语言中对lasso回归,ridge岭回归和elastic-net模型
9.R语言线性判别分析(LDA),二次判别分析(QDA)和正则判别分析(RDA)