【机器学习|学习笔记】特征选择(Feature Selection)和特征提取(Feature Extraction)都是用于降维、提升模型性能和泛化能力的重要手段。

【机器学习|学习笔记】特征选择(Feature Selection)和特征提取(Feature Extraction)都是用于降维、提升模型性能和泛化能力的重要手段。

【机器学习|学习笔记】特征选择(Feature Selection)和特征提取(Feature Extraction)都是用于降维、提升模型性能和泛化能力的重要手段。


文章目录

  • 【机器学习|学习笔记】特征选择(Feature Selection)和特征提取(Feature Extraction)都是用于降维、提升模型性能和泛化能力的重要手段。
  • 前言
    • 一、特征选择(Feature Selection)
      • 1.1 定义:
      • 1.2 分类:
      • 1.3 关键目的:
    • 二、特征提取(Feature Extraction)
      • 2.1 定义:
      • 2.2 分类与方法:
      • 2.3 应用场景:
    • 三、特征选择 vs. 特征提取
    • 四、发展趋势与融合(结合机器学习发展)
      • 1. 从规则型到学习型:
      • 2. 特征选择+深度网络嵌套:
      • 3. 自监督+特征提取:
      • 4. 可解释性需求推动特征选择发展:
    • 总结:


欢迎铁子们点赞、关注、收藏!
祝大家逢考必过!逢投必中!上岸上岸上岸!upupup

大多数高校硕博生毕业要求需要参加学术会议,发表EI或者SCI检索的学术论文会议论文。详细信息可关注VX “学术会议小灵通”或参考学术信息专栏:https://blog.csdn.net/2401_89898861/article/details/147196847


前言

在机器学习中,特征选择(Feature Selection)和特征提取(Feature Extraction)都是用于降维、提升模型性能和泛化能力的重要手段,尤其是在处理高维数据(如文本、图像、遥感、基因组数据)时尤为关键。两者目标相同——优化输入特征集合,但方法和理念有显著差别。下面详细解释二者的概念、主流方法以及对比。

一、特征选择(Feature Selection)

1.1 定义:

  • 特征选择是指从原始特征集中挑选出最相关、最有用的子集,去除冗余、无关或噪声特征,不改变原始特征本身的物理含义或结构。

1.2 分类:

根据是否使用标签信息,特征选择可以分为:

类别 是否使用标签 示例算法
过滤法(Filter) 相关系数(Pearson)、互信息、方差筛选、卡方检验
包裹法(Wrapper) 递归特征消除(RFE)、顺序特征选择(SFS)
嵌入法(Embedded) Lasso、随机森林、XGBoost特征重要性

1.3 关键目的:

  • 降低模型复杂度
  • 减少过拟合
  • 提高模型精度与可解释性
  • 减少计算资源开销

二、特征提取(Feature Extraction)

2.1 定义:

  • 特征提取是指从原始特征中通过变换或映射方式,构造出新的特征(低维或高维),往往改变了原始数据的表达方式。例如将高维数据转换为低维的嵌入或主成分。

2.2 分类与方法:

方法 原理 特点
主成分分析(PCA) 投影最大方差方向 无监督,线性降维
线性判别分析(LDA) 类间/类内方差比最大 有监督,优化类别可分性
t-SNE / UMAP 非线性嵌入 适合可视化
自编码器(AutoEncoder) 编码-解码重构 深度非线性降维
深度卷积网络特征提取 CNN中间层输出 特征学习(如图像、遥感)
Word2Vec / BERT 词向量嵌入 文本嵌入表示

2.3 应用场景:

  • 处理冗余或信息高度耦合的特征
  • 原始数据维度极高(如图像、光谱、语音)
  • 希望发现潜在结构或嵌入空间

三、特征选择 vs. 特征提取

比较维度 特征选择 特征提取
是否保留原始特征 ✅保留(只是子集) ❌变换后特征
可解释性 较强(与原特征一一对应) 较弱(新特征无明确含义)
是否构造新特征 是(线性/非线性组合)
算法复杂度 较低 可能较高(尤其是深度模型)
与模型关系 可以是无关(Filter)或强依赖(Wrapper) 强依赖(学习表示)
应用场景 特征稀疏/有物理意义 特征冗余或抽象,维度极高
典型方法 Lasso、RFE、信息增益 PCA、AutoEncoder、CNN嵌入

四、发展趋势与融合(结合机器学习发展)

1. 从规则型到学习型:

  • 传统特征选择多基于统计规则(如信息增益),但现代方法倾向于使用可训练模型(如基于注意力的特征权重)。

2. 特征选择+深度网络嵌套:

  • 嵌入式特征选择(如L1正则化)在深度模型中被进一步拓展,如神经结构搜索(NAS)、注意力机制中自动选择关键特征区域。

3. 自监督+特征提取:

  • 自监督学习(SimCLR, MoCo, MAE)中的特征提取更强大,甚至可用于下游无监督任务的特征选择。

4. 可解释性需求推动特征选择发展:

  • 在医学、金融等高风险领域,可解释的特征选择(如Shapley值、LIME)变得尤为关键。

总结:

内容 特征选择 特征提取
定义 选择原始特征子集 构造新特征表示
目标 去冗余、提效、增强可解释性 抽象、高效表示、结构发现
发展方向 更智能的特征重要性评估 更深层的特征嵌入与表示学习
建议 数据结构清晰时优先使用 数据复杂、维度极高时优先使用

你可能感兴趣的:(机器学习,学习笔记,机器学习,学习,笔记,人工智能,神经网络)