qidao123.com技术社区-IT企服评测·应用市场

标题: 一文彻底搞懂 Fine-tuning - 超参数(Hyperparameter) [打印本页]

作者: 温锦文欧普厨电及净水器总代理    时间: 2024-9-21 03:25
标题: 一文彻底搞懂 Fine-tuning - 超参数(Hyperparameter)
最近这一两周看到不少互联网公司都已经开始秋招提前批了。差别以往的是,当前职场环境已不再是那个双向奔赴期间了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的口试题,资助一些球友解惑答疑,分享技能口试中的那些弯弯绕绕。
《AIGC 口试宝典》圈粉无数!
《大模型口试宝典》(2024版) 发布!
喜好本文记得收藏、关注、点赞。更多实战和口试互换,欢迎互换

Hyperparameter

超参数(Hyperparameter),是机器学习算法中的调优参数,用于控制模型的学习过程和布局。与模型参数(Model Parameter)差别,模型参数是在训练过程中通过数据学习得到的,而超参数是在训练之前由开辟者或实践者直接设定的,而且在训练过程中保持不变。

Hyperparameter vs Model Parameter
超参数是机器学习算法在开始执行前必要设置的一些参数,这些参数的值会影响算法的体现,但不会通过训练过程自动调解。
必要本身设定,不是机器本身找出来的,称为超参数(hyperparameter)。

Hyperparameter
超参数大致可以分为三类:神经网络布局的超参数、神经网络训练过程的超参数和神经网络中过拟合的超参数。

Hyperparameter
一、神经网络布局的超参数
直接影响神经网络布局的超参数主要包括网络层数(Layers)和每层的神经元数目(Neurons per Layer),它们共同决定了神经网络的深度和宽度,进而影响其学习复杂特性的本领、训练难度、计算资源需求以及大概存在的过拟合风险。此外,虽然激活函数(Activation Function)不直接改变网络布局,但它通过引入非线性变换,显著影响网络的表达本领和性能,是神经网络计划中不可忽视的关键因素。

Directly affect the structure of the neural network


二、神经网络训练过程的超参数

直接影响神经网络训练过程的超参数包括学习率(Learning Rate)、批量巨细(Batch Size)、迭代次数(Epochs)和优化算法(Optimizer)。这些超参数共同决定了训练过程中模型权重的更新方式、训练速度、稳定性和终极性能。

Directly control the training process of the neural network




三、神经网络中过拟合的超参数

正则化系数(Regularization)是直接影响神经网络中过拟合问题的关键超参数。



正则化系数是控制正则化强度的超参数。较大的正则化系数会对模型权重施加更强的束缚,低落模型的复杂度,从而镌汰过拟合。常见的正则化方法包括L1正则化和L2正则化、Dropout等。

Directly control the overfitting in the neural network


L1、L2正则化


Dropout

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 qidao123.com技术社区-IT企服评测·应用市场 (https://dis.qidao123.com/) Powered by Discuz! X3.4