当前位置: 首页 > news >正文

【机器学习笔记 Ⅲ】4 特征选择

特征选择(Feature Selection)系统指南

特征选择是机器学习中优化模型性能的关键步骤,通过筛选最相关、信息量最大的特征,提高模型精度、降低过拟合风险并加速训练。以下是完整的特征选择方法论:


1. 特征选择的核心目标
  • 提升模型性能:去除噪声和冗余特征,增强泛化能力。
  • 降低计算成本:减少训练和预测时间。
  • 增强可解释性:简化模型,便于业务理解。

2. 特征选择方法分类
(1) 过滤法(Filter Methods)

原理:基于统计指标评估特征与目标的相关性,独立于模型。
优点:计算高效,适合高维数据。
常用技术

  • 数值特征
    • 皮尔逊相关系数(线性关系):
      import pandas as pd
      corr = df.corr()['target'].abs().sort_values(ascending=False)
      
    • 互信息(非线性关系):
      from sklearn.feature_selection import mutual_info_classif
      mi = mutual_info_classif(X, y)
      
  • 分类特征
    • 卡方检验(Chi-Square):
      from sklearn.feature_selection import chi2
      chi2_scores, _ = chi2(X, y)
      
    • ANOVA F值(方差分析):
      from sklearn.feature_selection import f_classif
      f_scores, _ = f_classif(X, y)
      

筛选阈值示例

selected_features = corr[corr > 0.3].index.tolist()
(2) 包裹法(Wrapper Methods)

原理:通过模型性能迭代选择特征子集。
优点:考虑特征交互,效果通常更好。
常用技术

  • 递归特征消除(RFE)
    from sklearn.feature_selection import RFE
    from sklearn.linear_model import LogisticRegression
    rfe = RFE(estimator=LogisticRegression(), n_features_to_select=10)
    rfe.fit(X, y)
    selected_features = X.columns[rfe.support_]
    
  • 顺序特征选择(SFS)
    from mlxtend.feature_selection import SequentialFeatureSelector
    sfs = SequentialFeatureSelector(estimator=RandomForestClassifier(),k_features=10,forward=True)  # 前向或后向选择
    sfs.fit(X, y)
    
(3) 嵌入法(Embedded Methods)

原理:模型训练过程中自动选择特征。
优点:平衡效率与效果。
常用技术

  • L1正则化(Lasso)
    from sklearn.linear_model import Lasso
    lasso = Lasso(alpha=0.1).fit(X, y)
    selected_features = X.columns[lasso.coef_ != 0]
    
  • 树模型特征重要性
    from sklearn.ensemble import RandomForestClassifier
    rf = RandomForestClassifier().fit(X, y)
    importance = rf.feature_importances_
    selected_features = X.columns[importance > np.mean(importance)]
    

3. 高级技术与自动化工具
(1) 特征重要性可视化
import matplotlib.pyplot as plt
plt.barh(X.columns, rf.feature_importances_)
plt.title("Feature Importance")
plt.show()

特征重要性

(2) 自动化特征选择库
  • Feature-engine
    from feature_engine.selection import DropCorrelatedFeatures
    selector = DropCorrelatedFeatures(threshold=0.8)
    X_train = selector.fit_transform(X_train)
    
  • Boruta(基于阴影特征):
    from boruta import BorutaPy
    boruta = BorutaPy(estimator=RandomForestClassifier(), n_estimators='auto', verbose=2)
    boruta.fit(X.values, y.values)
    selected_features = X.columns[boruta.support_]
    

4. 领域驱动的特征选择
  • 业务知识优先:例如金融风控中,人工筛选与欺诈强相关的特征(如交易频率、金额突增)。
  • 特征工程结合
    • 创建衍生特征(如“最近7天登录次数”)。
    • 分箱处理(将连续年龄分为“青年/中年/老年”)。

5. 验证与迭代
  • 交叉验证评估:对比特征选择前后的模型性能(如AUC、F1)。
    from sklearn.model_selection import cross_val_score
    scores = cross_val_score(model, X_selected, y, cv=5, scoring='roc_auc')
    
  • 稳定性检查:多次运行特征选择,观察高频被选中的特征。

6. 常见陷阱与解决方案
问题解决方案
数据泄漏仅在训练集上计算统计量,避免使用测试集信息
高基数分类特征使用目标编码或嵌入表示
特征间多重共线性移除相关系数>0.8的特征或使用PCA降维

7. 总结与最佳实践
  1. 流程建议
    • 先过滤法快速降维 → 嵌入法优化 → 包裹法精细调优(计算资源允许时)。
  2. 关键原则
    • 少而精:优先选择10-20个高价值特征。
    • 可解释性:确保业务方理解最终特征。
  3. 工具链
    数据预处理
    过滤法初筛
    嵌入法优化
    包裹法验证
    业务审核

通过系统化的特征选择,可显著提升模型效率与效果。实际应用中需结合数据特性和业务需求灵活调整方法。

http://www.lryc.cn/news/582334.html

相关文章:

  • 【ARM AMBA AXI 入门 21 -- AXI partial 访问和 narrow 访问的区别】
  • 田间杂草分割实例
  • Qt的第一个程序(2)
  • JVM基础01(从入门到八股-黑马篇)
  • 微信小程序81~90
  • C++笔记之和的区别
  • 力扣 hot100 Day37
  • 回溯题解——子集【LeetCode】二进制枚举法
  • ubuntu18.04.1无法安装vscode(安装依赖无效)
  • qiankun 微前端框架子应用间通信方法详解
  • xbox one controller DSLogic 逻辑分析仪截包
  • 1.1_5_2 计算机网络的性能指标(下)
  • OpenWebUI(3)源码学习-后端models数据模型模块
  • LLVM,polly,最新测试
  • ServerAgent资源监控和nmon监控
  • 【Linux操作系统】简学深悟启示录:Linux基本指令
  • 串行接口:CAN总线
  • 2025年全国青少年信息素养大赛图形化(Scratch)编程小学低年级组初赛样题答案+解析
  • 华为OD机试 2025B卷 - 最长的指定瑕疵度的元音子串 (C++PythonJAVAJSC语言)
  • 互补功率放大器Multisim电路仿真——硬件工程师笔记
  • web渗透之指纹识别1
  • 施密特触发器Multisim电路仿真——硬件工程师笔记
  • 2048-控制台版本
  • 设计模式文章
  • 汽车信息安全 -- SHE密钥更新小细节
  • vscode配置gitlab仓库详细步骤
  • 闲庭信步使用图像验证平台加速FPGA的开发:第二课——RGB转YCbCr的FPGA硬件编程详解
  • Rust单例模式:OnceLock的使用指南
  • Rust 内存结构:深入解析
  • iOS 出海 App 安全加固指南:无源码环境下的 IPA 加固与防破解方法