ToB企服应用市场:ToB评测及商务社交产业平台

标题: 【scikit-learn基础】--『预处理』之 正则化 [打印本页]

作者: 南飓风    时间: 2024-2-23 06:11
标题: 【scikit-learn基础】--『预处理』之 正则化
数据的预处理是数据分析,或者机器学习训练前的重要步骤。
通过数据预处理,可以
本篇介绍的正则化处理,主要功能是对每个样本计算其范数,然后对该样本中每个元素除以该范数,
这样处理的结果是使得每个处理后样本的范数(如l1-norm、l2-norm)等于1。
1. 原理

介绍正则化之前,先简单介绍下范数的概念。
1.1. 范数

范数常被用来度量某个向量空间(或矩阵)中的每个向量的长度或大小,
可以简单理解为向量的长度,或者向量到零点的距离,或者相应的两个点之间的距离。
对于向量(\(x = [x_1, x_2, ...,x_m]\)),常见的范数有:
numpy中已经提供了计算向量范数的函数。
  1. import numpy as np
  2. # 范数计算
  3. arr = np.random.randint(0, 100, 10)
  4. print("向量: {}".format(arr))
  5. L1 = np.linalg.norm(arr, 1)
  6. print("L1范数: {}".format(L1))
  7. L2 = np.linalg.norm(arr, 2)
  8. print("L2范数: {}".format(L2))
  9. LInf = np.linalg.norm(arr, np.inf)
  10. print("无穷范数: {}".format(LInf))
  11. # 运行结果
  12. 向量: [12 22 30 75 20 28 38 72  2 33]
  13. L1范数: 332.0
  14. L2范数: 126.72016414130783
  15. 无穷范数: 75.0
复制代码
1.2. 正则化

有了范数的概念之后,再来看正则化,根据选用的范数不同,正则化也分为L1正则化,L2正则化等等。
范数正则化过程中扮演了重要的角色,被用来限制优化参数的大小,帮助防止模型过拟合。
  1. from sklearn import preprocessing as pp
  2. data = np.random.randint(1, 100, size=(3, 3))
  3. L1 = pp.normalize(data, norm="l1")
  4. L2 = pp.normalize(data, norm="l2")
  5. LMax = pp.normalize(data, norm="max")
  6. print("L1正则化: {}".format(L1))
  7. print("L2正则化: {}".format(L2))
  8. print("Max正则化: {}".format(LMax))
  9. # 运行结果
  10. L1正则化:
  11. [[0.29677419 0.09677419 0.60645161]
  12. [0.20408163 0.46938776 0.32653061]
  13. [0.05       0.67       0.28      ]]
  14. L2正则化:
  15. [[0.43510613 0.14188244 0.88912993]
  16. [0.33614632 0.77313654 0.53783412]
  17. [0.06869324 0.92048947 0.38468217]]
  18. Max正则化:
  19. [[0.4893617  0.15957447 1.        ]
  20. [0.43478261 1.         0.69565217]
  21. [0.07462687 1.         0.41791045]]
复制代码
正则化之后,所有的数值都被压缩到了 0~1之间。
后续介绍机器学习算法时,可以看到正则化如何缓解训练结果过拟合的问题。
2. 作用

对数据进行正则化处理的主要作用有:
2.1. 防止过拟合

过拟合是指模型在训练数据上表现很好,但在测试数据上表现不佳的现象。
主要原因是模型在训练数据上学习了过多的噪声和异常值,导致对训练数据过度拟合。
正则化通过对模型的复杂性进行惩罚,使得模型在训练数据上表现良好的同时,也能够对测试数据有较好的预测能力。
2.2. 提升稳定性和鲁棒性

稳定性是指模型对于输入数据的小变化能够产生可接受的结果。
也就是说,如果输入数据在一定范围内发生微小变化,模型的输出结果也会相应地按照相同的排列顺序发生微小变化,而不是发生较大的颠覆性变化。
鲁棒性则是指模型在一定条件下对于某些性能的保持能力。
也就是说,当输入数据中存在噪声、异常值或不完全信息时,模型能够通过适当的处理和算法,保持其原有的性能表现,不会因为这些干扰因素而出现大幅度性能下降。
在实际应用中,稳定性鲁棒性往往是相互制约的。
过于强调稳定性可能导致模型过于简单,无法处理复杂的数据特征;
而过于强调鲁棒性可能导致模型过于复杂,容易受到噪声和异常值的影响。
因此,需要根据实际应用场景和数据特点来权衡考虑这两种性能指标,以实现最优的性能表现。
正则化可以通过对模型的复杂性进行惩罚,使得模型对于输入数据的小变化不会产生太大的影响,从而提高了模型的稳定性鲁棒性
2.3. 提高泛化能力

泛化能力是指模型在未曾见过的数据上的表现能力,也就是模型对于新的数据的适应能力。
正则化可以通过对模型的复杂性进行惩罚,使得模型更加专注于训练数据中的重要特征,而不是被训练数据中的噪声和异常值所迷惑。
这样可以在一定程度上提高模型的泛化能力,使得模型在未知数据上的表现更好。
3. 总结

在scikit-learn中,主要有三种正则化方法,L1正则化,L2正则化和Max正则化。
实际应用中,根据数据的特征和场景对数据选择不同的正则化方法,使得训练后的模型能够有更好的精度和性能。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4