
线性判别分析(LDA)是一种强大的降维技术,旨在通过创建新的线性组合来最大化类别间的分离度,而非直接选择原始特征。本文将深入探讨LDA的工作原理,阐明其与特征选择的区别,并详细指导如何利用`lda.coef_`属性来理解原始特征对新判别函数的影响及贡献,通过示例代码提供清晰的实践指导。
线性判别分析(LDA)的核心机制
线性判别分析(LDA)是一种监督式学习算法,主要用于分类和降维。与主成分分析(PCA)不同,LDA在降维时会考虑数据的类别信息。它的核心目标是找到一个或多个线性判别函数(或称判别方向),使得不同类别的数据点投影到这些方向上时,类别间的距离最大化,同时类别内部的方差最小化。
关键点:LDA不是特征选择。 这是一个常见的误解。LDA并不会从原始特征集中“选择”出最好的N个特征。相反,它会基于原始特征创建一个全新的、维度更低的特征空间。这个新空间中的每个维度(判别函数)都是原始特征的线性组合。例如,如果原始数据集有4个特征,LDA将其降维到2个特征,这2个“新特征”是原始4个特征的某种加权求和。
理解LDA的输出:lda.coef_
既然LDA不直接选择原始特征,那么我们如何理解原始特征在降维过程中扮演的角色,或者说它们对最终判别函数有多大的贡献呢?答案在于LDA模型的一个重要属性:lda.coef_。
lda.coef_属性提供了构成线性判别函数的系数。这些系数反映了每个原始特征对判别函数方向的贡献程度。
- 系数的含义: lda.coef_是一个矩阵,其行数等于LDA生成的新维度(判别函数)的数量,列数等于原始特征的数量。矩阵中的每个值lda.coef_[i, j]表示第j个原始特征对第i个判别函数的影响权重。
- 顺序对应: lda.coef_中系数的顺序与训练模型时输入特征的顺序是严格一致的。例如,lda.coef_中的第一个值对应于输入数据的第一个特征(或列),第二个值对应于第二个特征,依此类推。
- 贡献度解读: 系数的绝对值大小通常用来衡量对应特征的重要性。绝对值越大的系数,表明该特征对区分不同类别的影响越大,或者说它在构建判别函数时起到了更重要的作用。系数的正负则表示该特征与判别方向的正向或负向相关性。
实践示例:使用Scikit-learn进行LDA分析
让我们通过一个具体的python示例来演示如何应用LDA并解读其系数。我们将使用经典的Iris数据集,它包含4个特征和3个类别。
import pandas as pd from sklearn.datasets import load_iris from sklearn.discriminant_analysis import LinearDiscriminantAnalysis import matplotlib.pyplot as plt import seaborn as sns # 1. 加载Iris数据集 iris = load_iris() X = iris.data # 特征数据 y = iris.target # 目标类别 # 将特征名称存储起来,以便后续解读 feature_names = iris.feature_names # 2. 初始化并应用LDA # 目标是降维到2个维度(因为有3个类别,LDA最多生成 n_classes - 1 个判别函数) lda = LinearDiscriminantAnalysis(n_components=2) X_r2 = lda.fit(X, y).transform(X) print("原始特征维度:", X.shape[1]) print("LDA降维后的维度:", X_r2.shape[1]) # 3. 获取并解读判别函数的系数 coefficients = lda.coef_ print("nLDA判别函数的系数 (lda.coef_):n", coefficients) # 4. 可视化系数以理解特征贡献 # 通常,lda.coef_的每一行对应一个判别函数 # 如果只有一行(即n_components=1),则直接是那个判别函数的系数 # 如果有多行,则每行代表一个判别函数,我们可以分析每个判别函数中特征的贡献 # 创建一个DataFrame以便更好地展示和分析系数 coef_df = pd.DataFrame(coefficients, columns=feature_names) coef_df.index = [f"Discriminant Function {i+1}" for i in range(coefficients.shape[0])] print("n特征贡献度(DataFrame形式):n", coef_df) # 可视化每个判别函数中特征的贡献 plt.figure(figsize=(10, 6)) sns.heatmap(coef_df.T, annot=True, cmap='coolwarm', fmt=".2f", linewidths=.5) plt.title('Contribution of Original Features to LDA Discriminant Functions') plt.xlabel('Discriminant Function') plt.ylabel('Original Feature') plt.show() # 5. 可选:可视化降维后的数据 plt.figure(figsize=(8, 6)) colors = ['navy', 'turquoise', 'darkorange'] lw = 2 for color, i, target_name in zip(colors, [0, 1, 2], iris.target_names): plt.scatter(X_r2[y == i, 0], X_r2[y == i, 1], alpha=.8, color=color, label=target_name) plt.legend(loc='best', shadow=False, scatterpoints=1) plt.title('LDA of Iris dataset') plt.xlabel('Discriminant Function 1') plt.ylabel('Discriminant Function 2') plt.show()
代码解读:
- 我们加载了Iris数据集,并将其特征数据X和目标类别y分开。
- 初始化LinearDiscriminantAnalysis,并设置n_components=2,表示我们希望将数据降维到2个判别函数。
- 通过lda.fit(X, y).transform(X)训练模型并对数据进行转换。
- 最关键的一步是访问lda.coef_。在这个例子中,coefficients将是一个2×4的矩阵,因为我们降维到2个判别函数,而原始数据有4个特征。
- coefficients[0, :]表示第一个判别函数中各个原始特征的系数。
- coefficients[1, :]表示第二个判别函数中各个原始特征的系数。
- 我们通过DataFrame和热力图的形式,更直观地展示了每个原始特征对两个判别函数的贡献。例如,如果sepal Length (cm)在第一个判别函数中有较大的正系数,而在第二个判别函数中有较小的系数,则说明它主要贡献于第一个判别方向。
注意事项与总结
- 标准化: 虽然LDA在内部处理了特征的尺度,但通常在应用LDA之前对特征进行标准化(例如使用StandardScaler)是一个好的实践,尤其是在与其他模型结合或为了更清晰地解释系数时。
- 系数的相对性: lda.coef_中的系数是相对的。它们的绝对值大小反映了特征在当前判别函数中的相对重要性,但不能直接比较不同模型或不同数据集的系数。
- 降维上限: LDA可以生成的最多的判别函数数量是min(n_classes – 1, n_features)。例如,对于Iris数据集(3个类别,4个特征),LDA最多可以生成min(3 – 1, 4) = 2个判别函数。
- 目标: 记住LDA的目标是最大化类别间的分离度,而不是找到与原始特征最相关的特征。lda.coef_只是帮助我们理解这种分离是如何通过原始特征的线性组合实现的。
通过理解lda.coef_,数据科学家和机器学习工程师可以更深入地洞察LDA模型的工作机制,从而更好地解释模型结果,并理解哪些原始特征在构建类别区分度方面发挥了关键作用,即使这些特征本身并未被“选择”出来。


