机器学习中的激活函数是什么起什么作用

打印 上一主题 下一主题

主题 1018|帖子 1018|积分 3054

在机器学习,尤其是神经网络中,​激活函数​(Activation Function)是一个非常重要的组件。它的主要作用是为神经网络引入非线性,从而使神经网络能够学习和表现复杂的模式或函数。
1.激活函数的界说

激活函数是一个数学函数,通常作用于神经元的输出。它吸收神经元的加权输入(即输入数据与权重的线性组合加上偏置),并将其转换为一个输出值。这个输出值将作为下一层神经元的输入。
2.激活函数的作用


  • 引入非线性

    • 如果没有激活函数,神经网络无论有多少层,都只能表现线性关系(因为线性变更的组合仍然是线性的)。激活函数通过引入非线性,使得神经网络可以学习和逼近复杂的非线性函数。

  • 决定神经元的输出

    • 激活函数决定了神经元是否被激活(即是否输出一个非零值)。它根据输入的值决定输出的强度,从而影响网络的决议过程。

  • 增强模子的表达能力

    • 通过使用差别的激活函数,神经网络可以学习到差别的特征和模式,从而提高模子的表达能力。

3.常见的激活函数


  • Sigmoid 函数

    • 公式:σ(x)=1+e−x1​
    • 特点:将输入映射到 (0, 1) 之间,常用于二分类题目的输出层。缺点是容易导致梯度消失题目。

  • Tanh 函数

    • 公式:tanh(x)=ex+e−xex−e−x​
    • 特点:将输入映射到 (-1, 1) 之间,比 Sigmoid 函数更对称,但仍存在梯度消失题目。

  • ReLU(Rectified Linear Unit)函数

    • 公式:ReLU(x)=max(0,x)
    • 特点:盘算简朴且高效,能够缓解梯度消失题目,是当前最常用的激活函数之一。缺点是输出可能为 0,导致神经元“死亡”。

  • Leaky ReLU 函数

    • 公式:Leaky ReLU(x)=max(0.01x,x)
    • 特点:办理了 ReLU 的神经元“死亡”题目,允许负值输入时有一个小的梯度。

  • Softmax 函数

    • 公式:Softmax(xi​)=∑j​exj​exi​​
    • 特点:将输入转换为概率分布,常用于多分类题目的输出层。

4.选择激活函数的思量因素


  • 使命范例:分类使命和回归使命可能必要差别的激活函数。
  • 梯度消失/爆炸题目:某些激活函数可能导致梯度消失或爆炸,影响训练结果。
  • 盘算效率:激活函数的盘算复杂度会影响模子的训练和推理速度。
  • 输出范围:根据题目的需求,选择符合的输出范围(如二分类题目通常使用 Sigmoid,多分类题目使用 Softmax)。
5.总结

激活函数是神经网络中不可或缺的一部分,它通过引入非线性来增强模子的表达能力,同时决定了神经元的输出特性。选择符合的激活函数对模子的性能和训练结果至关重要。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

河曲智叟

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表