机器学习--特性选择

打印 上一主题 下一主题

主题 701|帖子 701|积分 2103

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
一、方法介绍
(一)定义
在机器学习中,特性选择是一个至关紧张的环节,其目的是从原始特性聚集中挑选出最具代表性和信息量的特性子集,使得在该子集上构建的机器学习模型能够达到最佳的预测或分类效果。
在现实的数据集里,每每存在大量的特性,此中一些特性大概与目的变量高度相关,对模型的预测有紧张贡献;而另一些特性大概是冗余的、不相关的以致会对模型产生干扰,增加模型的复杂度和噪声。
(二)特性选择方法
特性选择方法通常可以分为三类:过滤式方法、包裹式方法和嵌入式方法。
1.过滤式方法:独立于模型,在模型训练之前基于数据的内在特性对特性进行评估和选择,计算速度快,但大概无法充分思量特性与特定模型的相互作用。
2.包裹式方法:以特定的机器学习模型为基础,将特性选择过程视为一个搜索问题,通过在特性子集空间中进行搜索,以模型在验证集上的性能作为评价标准来选择最优特性子集,这种方法通常能获得较好的效果,但计算成本较高。
3.嵌入式方法:将特性选择与模型训练过程相联合,在模型训练的过程中自动进行特性选择,例如Lasso回归通过在损失函数中添加L1正则化项,使得模型在训练过程中自动将一些不紧张的特性的系数收缩为零,从而实现特性选择的目的。
(三)应用
在生物信息学中,通过特性选择可以从大量的基因表达数据中筛选出与疾病相关的关键基因;
在自然语言处置惩罚中,能够从浩繁的文本特性中选择出最能代表文本主题和语义的特性,提高文本分类和情感分析等任务的准确性;
在图像辨认领域,有助于从海量的图像特性中提取出最具鉴别力的特性,低沉模型的复杂度,提高辨认效率。
二、基于树的特性选择方法
基于树的特性选择方法是机器学习中一种紧张且广泛应用的特性选择技术,它主要基于决议树或树集成模型来评估和选择特性。
(一)决议树
决议树是一种基于树布局的分类或回归模型,其核心思想是通过对特性进行递归的划分,将样本空间逐步划分为差异的子空间,使得每个子空间内的样本尽大概属于同一种别或具有相似的数值。在决议树的构建过程中,通过计算每个特性的信息增益,并选择信息增益最大的特性作为分裂特性,决议树能够自动地对特性进行排序和筛选,在树的生长过程中,那些对分类或回归没有太大贡献的特性每每不会被选择为分裂特性,从而实现了特性选择的效果。
(二)树集成模型
树集成模型如随机丛林(Random Forest)和梯度提拔树(Gradient Boosting Tree)等,也被广泛用于特性选择。在随机丛林中,包含了多个决议树,通过对训练数据进行有放回的抽样构建多个子数据集,然后分别训练决议树,最后综合多个决议树的结果进行预测。在这个过程中,可以通过计算每个特性在全部决议树中的均匀紧张性得分来评估特性的紧张性。
(三)长处与缺点
1.不需要对数据进行复杂的预处置惩罚和归一化操纵,能够处置惩罚各种类型的数据,包括数值型、分类型等。
2.树模型具有很好的可解释性,通过观察树的布局和特性的分裂情况,可以直观地了解每个特性对模型决议的影响。
3.树集成模型的计算成本相对较高,特别是在处置惩罚大规模数据集时,需要消耗较多的时间和计算资源。

  1. import numpy as np
  2. import matplotlib.pyplot as plt
  3. from sklearn.datasets import load_diabetes
  4. from sklearn.ensemble import GradientBoostingRegressor
  5. from sklearn.model_selection import train_test_split
  6. from sklearn.metrics import r2_score
  7. try:
  8.     # 加载糖尿病数据集
  9.     diabetes = load_diabetes()
  10.     X = diabetes.data
  11.     y = diabetes.target
  12.     # 数据集划分(添加stratify保证数据分布一致性)
  13.     X_train, X_test, y_train, y_test = train_test_split(
  14.         X, y,
  15.         test_size=0.2,
  16.         random_state=42,
  17.         shuffle=True
  18.     )
  19.     # 创建并训练GBM模型(添加提前停止机制)
  20.     gbm = GradientBoostingRegressor(
  21.         n_estimators=200,
  22.         learning_rate=0.05,
  23.         max_depth=3,
  24.         random_state=42,
  25.         n_iter_no_change=10,  # 添加提前停止
  26.         validation_fraction=0.1
  27.     )
  28.     gbm.fit(X_train, y_train)
  29.     # 模型评估
  30.     y_pred = gbm.predict(X_test)
  31.     r2 = r2_score(y_test, y_pred)
  32.     print(f"\n模型性能评估:")
  33.     print(f"测试集 R² 分数: {r2:.4f}")
  34.     print(f"使用特征数: {X.shape[1]}")
  35.     print(f"最佳迭代次数: {gbm.n_estimators_}")
  36.     # 特征重要性处理
  37.     feature_importance = gbm.feature_importances_
  38.     sorted_idx = np.argsort(feature_importance)[::-1]  # 降序排列
  39.     sorted_features = np.array(diabetes.feature_names)[sorted_idx]
  40.     sorted_importance = feature_importance[sorted_idx]
  41.     # 可视化优化
  42.     plt.style.use('seaborn')
  43.     plt.figure(figsize=(10, 6))
  44.    
  45.     # 创建颜色渐变效果
  46.     colors = plt.cm.viridis(np.linspace(0.3, 1, len(sorted_idx)))
  47.    
  48.     bars = plt.barh(
  49.         range(len(sorted_idx)),
  50.         sorted_importance,
  51.         align='center',
  52.         color=colors,
  53.         edgecolor='black'
  54.     )
  55.    
  56.     # 添加数据标签
  57.     for bar in bars:
  58.         width = bar.get_width()
  59.         plt.text(
  60.             width + 0.005,
  61.             bar.get_y() + bar.get_height()/2,
  62.             f'{width:.3f}',
  63.             va='center',
  64.             fontsize=9
  65.         )
  66.     plt.yticks(range(len(sorted_idx)), sorted_features)
  67.     plt.xlabel('Feature Importance Score', fontsize=12)
  68.     plt.title('Diabetes Dataset Feature Importance (GBM)', fontsize=14, pad=20)
  69.     plt.gca().invert_yaxis()  # 反转y轴
  70.     plt.xlim(0, max(sorted_importance)*1.15)  # 为标签留出空间
  71.     plt.grid(axis='x', alpha=0.3)
  72.     plt.tight_layout()
  73.    
  74.     # 保存图表
  75.     plt.savefig('feature_importance.png', dpi=300, bbox_inches='tight')
  76.     plt.show()
  77. except Exception as e:
  78.     print(f"\n程序执行出错: {str(e)}")
  79.     print("建议检查:")
  80.     print("1. 确保scikit-learn版本 >= 0.22 (提前停止功能需要)")
  81.     print("2. 检查Python依赖包是否安装完整")
  82.     print("3. 确认数据集加载是否正常")
  83. # 添加版本检查
  84. import sklearn
  85. print(f"\n当前环境版本:")
  86. print(f"scikit-learn: {sklearn.__version__}")
  87. print(f"numpy: {np.__version__}")
  88. print(f"matplotlib: {plt.matplotlib.__version__}")
复制代码
可以发现最紧张的两个特性变量是BMI和S5;
(二)自动特性选择
仍旧利用糖尿病数据集,自动特性选择的代码如下:
  1. import numpy as np
  2. from sklearn.datasets import load_diabetes
  3. from sklearn.ensemble import GradientBoostingRegressor
  4. from sklearn.feature_selection import RFECV
  5. from sklearn.model_selection import train_test_split, GridSearchCV, cross_val_score
  6. from sklearn.metrics import mean_squared_error
  7. import matplotlib.pyplot as plt
  8. # 加载糖尿病数据集
  9. diabetes = load_diabetes()
  10. X = diabetes.data
  11. y = diabetes.target
  12. # 将数据集划分为训练集和测试集
  13. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
  14. # 初始化 GBM 模型
  15. gbm = GradientBoostingRegressor(random_state=42)
  16. # 使用网格搜索优化 GBM 超参数
  17. param_grid = {
  18.     'n_estimators': [50, 100, 200],
  19.     'learning_rate': [0.01, 0.1, 0.2],
  20.     'max_depth': [2, 3, 4]
  21. }
  22. grid_search = GridSearchCV(estimator=gbm, param_grid=param_grid, cv=5, scoring='neg_mean_squared_error')
  23. grid_search.fit(X_train, y_train)
  24. # 获取最佳模型
  25. best_gbm = grid_search.best_estimator_
  26. # 初始化 RFECV 进行特征选择
  27. rfecv = RFECV(estimator=best_gbm, step=1, cv=5, scoring='neg_mean_squared_error')
  28. # 进行特征选择
  29. rfecv.fit(X_train, y_train)
  30. # 获取选择的特征
  31. X_train_selected = rfecv.transform(X_train)
  32. X_test_selected = rfecv.transform(X_test)
  33. # 用选择的特征重新训练 GBM 模型
  34. best_gbm.fit(X_train_selected, y_train)
  35. # 预测测试集
  36. y_pred = best_gbm.predict(X_test_selected)
  37. # 计算 MSE
  38. mse = mean_squared_error(y_test, y_pred)
  39. print(f"Test MSE with selected features: {mse}")
  40. # 输出选择的特征索引
  41. print(f"Selected feature indices: {np.where(rfecv.support_)[0]}")
  42. # 可视化特征选择过程
  43. plt.figure()
  44. plt.xlabel("Number of features selected")
  45. plt.ylabel("Cross validation score (negative MSE)")
  46. plt.plot(range(1, len(rfecv.grid_scores_) + 1), rfecv.grid_scores_)
  47. plt.show()
复制代码


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

梦应逍遥

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表