比力查验:找出最佳呆板学习模子

打印 上一主题 下一主题

主题 1787|帖子 1787|积分 5361

在呆板学习领域,我们常常必要在多个模子之间举行比力,以选择最适合特定任务的模子。
模子比力查验为此提供了科学的依据和方法。
本文将探讨比力查验的概念、方法、区别与适用范围,并联合scikit-learn库给出详细的代码示例。
1. 什么是比力查验

比力查验,又称比对查验,是指通过比力不同模子(或算法)在相同或相似数据集上的表现,来研究它们之间的性能差别。
它基于模子在测试集上的表现,运用各种查验技术来判断模子之间的性能差别是否具有统计学意义。
它的重要作用是:

  • 模子选择:在多个候选模子中,通过比力查验找出性能最优的模子,为实际应用提供最佳选择。
  • 性能评估:客观、准确地评估模子的泛化本领,避免因随机因素导致的单方面结论。
  • 统计可靠性:确保模子性能的比力结果具有统计学上的可靠性,增强研究和实践的可信度。
  • 引导优化:明白模子之间的上风和不敷,为模子的进一步优化和改进提供方向。
通过比力查验,我们可以科学地评估不同模子的优劣,为模子的选择和优化提供有力支持。
2. 常用的比力查验方法

常用的比力查验方法有以下四种。
2.1. 假设查验

假设查验是统计学中用于判断样本之间是否存在显着差别的方法。
在模子比力中,常用于比力两个模子的性能。
  1. import numpy as np
  2. from scipy.stats import ttest_ind
  3. # 假设有两个模型的性能指标(如准确率)
  4. model_a_performance = np.random.rand(100) * 100  # 模拟模型A的性能指标
  5. model_b_performance = np.random.rand(100) * 100  # 模拟模型B的性能指标
  6. # 进行t检验
  7. t_statistic, p_value = ttest_ind(model_a_performance, model_b_performance)
  8. print(f'T statistic: {t_statistic:.2f}')
  9. print(f'P value: {p_value:.2f}')
  10. ## 输出结果:
  11. '''
  12. T statistic: -0.05
  13. P value: 0.96
  14. '''
复制代码
在上述代码中,模拟了两个模子的性能指标,并使用ttest_ind函数举行独立样本t查验。
通过输出的T统计量P值,可以判断两个模子的性能是否存在显着差别。
这里增补说明一下T统计量P值的含义。
t 统计量是衡量两个样本均值差别相对于样本数据变异性的统计量,它表示两个样本均值之间的差别与样本均值变异性的比值。
t 统计量绝对值越大,表示两个样本均值之间的差别相对于数据的变异性越大,越有可能认为这种差别是显着的,而不是由随机因素引起的。
p 值是在假设查验中,在原假设建立的条件下,观察到当前统计量(如 t 统计量)或更极端情况的概率。
p 值用于判断是否拒绝原假设:

  • p 值 < 显着性程度(如 0.05):拒绝原假设,认为两个模子的性能存在显着差别。此时,t 统计量的绝对值较大,表明两个模子的性能差别相对于数据的变异性是显着的。
  • p 值 ≥ 显着性程度(如 0.05):不拒绝原假设,认为两个模子的性能无显着差别。此时,t 统计量的绝对值较小,表明两个模子的性能差别可能是由随机因素引起的。
2.2. 交叉验证t查验

交叉验证 t 查验联合了交叉验证和** t 查验**的优点,能够在多次交叉验证的基础上,对模子性能举行更可靠的比力。
  1. from sklearn.model_selection import KFold, cross_val_score
  2. from scipy.stats import ttest_ind
  3. # 假设有两个模型
  4. from sklearn.linear_model import LogisticRegression
  5. from sklearn.svm import SVC
  6. # 加载数据集
  7. from sklearn.datasets import load_iris
  8. data = load_iris()
  9. X, y = data.data, data.target
  10. # 定义模型
  11. model_a = LogisticRegression()
  12. model_b = SVC()
  13. # 进行k折交叉验证
  14. kf = KFold(n_splits=5, shuffle=True, random_state=42)
  15. scores_a = cross_val_score(model_a, X, y, cv=kf)
  16. scores_b = cross_val_score(model_b, X, y, cv=kf)
  17. # 进行t检验
  18. t_statistic, p_value = ttest_ind(scores_a, scores_b)
  19. print(f'Model A 得分: {scores_a}')
  20. print(f'Model B 得分: {scores_b}')
  21. print(f'T statistic: {t_statistic:.2f}')
  22. print(f'P value: {p_value:.2f}')
  23. ## 输出结果:
  24. '''
  25. Model A 得分: [1.         1.         0.93333333 0.96666667 0.96666667]
  26. Model B 得分: [1.         1.         0.93333333 0.93333333 0.96666667]
  27. T statistic: 0.34
  28. P value: 0.74
  29. '''
复制代码
在上述代码中,我们使用了LogisticRegression和SVC两个模子,并对Iris数据集举行了5折交叉验证。
通过比力两个模子在交叉验证中的性能差别,我们可以使用t查验来判断它们的性能是否存在显着差别。
2.3. McNemar 查验

McNemar 查验适用于比力两个相干样本的比例差别,常用于评估两个模子在相同测试集上的分类错误率。
  1. from statsmodels.stats.contingency_tables import mcnemar
  2. import numpy as np
  3. # 示例数据:二分类问题的预测结果
  4. # 行为实际分类,列为预测分类
  5. #        预测: 1    预测: 0
  6. # 实际: 1  [10,      5]
  7. # 实际: 0  [3,      12]
  8. data = np.array([[10, 5],
  9.                  [3,  12]])
  10. # 执行 McNemar 检验
  11. result = mcnemar(data, exact=True)
  12. print("McNemar 检验统计量:", result.statistic)
  13. print("p 值:", result.pvalue)
  14. ## 运行结果:
  15. '''
  16. McNemar 检验统计量: 3.0
  17. p 值: 0.7265625
  18. '''
复制代码
上面的代码直接使用了statsmodels库的mcnemar方法。
2.4. Friedman 查验和 Nemenyi 查验

Friedman查验是一种非参数查验方法,用于比力多个算法在多个数据集上的整体表现性能。
如果Friedman查验结果显示算法之间存在显着差别,则可以使用Nemenyi查验举行后续比力,以确定哪些算法之间存在显着差别。
代码示例如下:
  1. import numpy as np
  2. from scipy.stats import friedmanchisquare
  3. # 示例数据:每个子列表表示一个被试的不同条件下的观测值
  4. # 例如,三种不同的处理 (A, B, C) 对于每个个体的效果
  5. data = [
  6.     [100, 25, 30],  # 第一位被试的观测值
  7.     [200, 35, 15],  # 第二位被试的观测值
  8.     [300, 20, 25],  # 第三位被试的观测值
  9.     [250, 10, 35],  # 第四位被试的观测值
  10.     [150, 30, 20],  # 第五位被试的观测值
  11.     [350, 15, 20],  # 第六位被试的观测值
  12. ]
  13. # 转换为 NumPy 数组
  14. data = np.array(data)
  15. # Friedman 检验
  16. statistic, p_value = friedmanchisquare(
  17.     data[:, 0],
  18.     data[:, 1],
  19.     data[:, 2],
  20. )
  21. print("Friedman 检验统计量:", statistic)
  22. print("Friedman 检验 p 值:", p_value)
  23. # 如果 Friedman 检验显著,进行 Nemenyi 检验(或 Tukey HSD 作为替代)
  24. if p_value < 0.05:
  25.     print("Friedman 检验显著,进行后续比较...")
  26.     # 使用 Tukey HSD 进行后续多重比较
  27.     from statsmodels.stats.multicomp import MultiComparison
  28.     # 创建 MultiComparison 对象
  29.     mc = MultiComparison(
  30.         data=[data[:, 0], data[:, 1], data[:, 2]], groups=["A", "B", "C"]
  31.     )
  32.     # 执行 Tukey HSD 检验
  33.     result = mc.tukeyhsd()
  34.     # 输出结果
  35.     print(result.summary())
  36. else:
  37.     print("Friedman 检验不显著,无需进行后续比较。")
复制代码

运行上述代码后,会看到一个较小的** p 值**(小于 0.05),这表明 Friedman 查验检测到不同条件之间存在显着差别。
随后,代码会执行 Tukey HSD 查验来进一步比力哪些条件之间存在显着差别,并输出结果。
3. 各种比力查验方法的比力

这几种比力查验方法的优缺点和适用范围对比如下表:
查验方法优点缺点适用范围假设查验简单易用,适用于比力两个模子假设数据服从正态分布,对样本量有肯定要求比力两个模子在单一数据集上的性能交叉验证 t 查验联合了交叉验证,结果更可靠计算量较大,仍假设数据服从正态分布比力两个模子在多个数据集上的性能McNemar 查验适用于比力两个模子在相同测试集上的分类错误率只考虑错误分类的情况,信息利用不充分比力两个模子在单一数据集上的性能Friedman 查验和 Nemenyi 查验能够比力多个模子在多个数据集上的性能,适用于非参数数据计算复杂,表明结果必要肯定的统计学知识比力多个模子在多个数据集上的性能4. 总结

本文系统地先容了模子比力查验的概念、作用、常用方法及其适用场景,并通过 scikit-learn 代码示例详细演示了每种方法的实现过程。
在实际应用中,应根据详细的数据特点、模子数目和比力需求,灵活选择合适的比力查验方法,以确保模子评估结果的准确性和可靠性。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

惊雷无声

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表