python变量的特点 |
您所在的位置:网站首页 › 决策树如何计算特征的重要性和必要性 › python变量的特点 |
我对原始数据集进行了PCA分析,并且从PCA转换的压缩数据集中,我还选择了我想要保留的PC数量(它们几乎解释了94%的方差).现在,我正在努力识别在简化数据集中重要的原始特征. 在降维后,如何找出哪些特征是重要的,哪些特征不在剩余的主要组件中? 这是我的代码: from sklearn.decomposition import PCA pca = PCA(n_components=8) pca.fit(scaledDataset) projection = pca.transform(scaledDataset) 此外,我还尝试对简化数据集执行聚类算法,但令我惊讶的是,得分低于原始数据集.这怎么可能? 解决方法: 首先,我假设您调用功能变量而不是样本/观察.在这种情况下,您可以通过创建一个在一个图中显示所有内容的双标图函数来执行以下操作.在这个例子中,我使用的是虹膜数据: 在此示例之前,请注意使用PCA作为特征选择工具时的基本思想是根据系数(载荷)的大小(从绝对值的最大值到最小值)选择变量.有关更多详细信息,请参阅情节后的最后一段. import numpy as np import matplotlib.pyplot as plt from sklearn import datasets from sklearn.decomposition import PCA import pandas as pd from sklearn.preprocessing import StandardScaler iris = datasets.load_iris() X = iris.data y = iris.target #In general a good idea is to scale the data scaler = StandardScaler() scaler.fit(X) X=scaler.transform(X) pca = PCA() x_new = pca.fit_transform(X) def myplot(score,coeff,labels=None): xs = score[:,0] ys = score[:,1] n = coeff.shape[0] scalex = 1.0/(xs.max() - xs.min()) scaley = 1.0/(ys.max() - ys.min()) plt.scatter(xs * scalex,ys * scaley, c = y) for i in range(n): plt.arrow(0, 0, coeff[i,0], coeff[i,1],color = 'r',alpha = 0.5) if labels is None: plt.text(coeff[i,0]* 1.15, coeff[i,1] * 1.15, "Var"+str(i+1), color = 'g', ha = 'center', va = 'center') else: plt.text(coeff[i,0]* 1.15, coeff[i,1] * 1.15, labels[i], color = 'g', ha = 'center', va = 'center') plt.xlim(-1,1) plt.ylim(-1,1) plt.xlabel("PC{}".format(1)) plt.ylabel("PC{}".format(2)) plt.grid() #Call the function. Use only the 2 PCs. myplot(x_new[:,0:2],np.transpose(pca.components_[0:2, :])) plt.show() 使用biplot可视化正在发生的事情 现在,每个特征的重要性反映在特征向量中相应值的大小(更高的幅度 – 更高的重要性) 让我们先看看每台PC解释的差异量. pca.explained_variance_ratio_ [0.72770452, 0.23030523, 0.03683832, 0.00515193] PC1解释率为72%,PC2为23%.如果我们只保留PC1和PC2,他们一起解释95%. 现在,让我们找到最重要的功能. print(abs( pca.components_ )) [[0.52237162 0.26335492 0.58125401 0.56561105] [0.37231836 0.92555649 0.02109478 0.06541577] [0.72101681 0.24203288 0.14089226 0.6338014 ] [0.26199559 0.12413481 0.80115427 0.52354627]] 这里,pca.components_具有形状[n_components,n_features].因此,通过查看作为第一行的PC1(第一主成分):[0.52237162 0.26335492 0.58125401 0.56561105]]我们可以得出结论,特征1,3和4(或双标图中的变量1,3和4)是最多的重要. 总而言之,查看对应于k个最大特征值的特征向量分量的绝对值.在sklearn中,组件按explain_variance_排序.这些绝对值越大,特定特征对该主要成分的贡献就越大. 标签:pca,python,scikit-learn,machine-learning,feature-selection |
今日新闻 |
点击排行 |
|
推荐新闻 |
图片新闻 |
|
专题文章 |
CopyRight 2018-2019 实验室设备网 版权所有 win10的实时保护怎么永久关闭 |