线性回归模子假设目的变量 y 与自变量 X 之间存在线性关系。这种关系可以用以下公式表示:
y = β 0 + β 1 X 1 + β 2 X 2 + … + β n X n + ϵ y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \ldots + \beta_n X_n + \epsilon y=β0+β1X1+β2X2+…+βnXn+ϵ
此中:
y 是目的变量。
X_1, X_2, \ldots, X_n 是自变量。
β_0, β_1,β_n 是回归系数,必要通过数据估计。
ε 是偏差项,表示模子无法解释的随机变异。
线性回归范例
简单线性回归:只有一个自变量和一个因变量。
多元线性回归:包含两个或更多自变量。
损失函数
线性回归通常使用最小二乘法来估计模子参数,即最小化现实观测值和模子猜测值之间的平方差之和。损失函数定义为:
MSE = 1 n ∑ i = 1 n ( y i − y ^ i ) 2 \text{MSE} = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 MSE=n1i=1∑n(yi−y^i)2
此中:
n 是样本数目。
y_i 是第 i 个观测值。
y_i是模子猜测值。
参数估计
最小二乘法通过求解以下方程来估计参数:
∂ MSE ∂ β j = 0 \frac{\partial \text{MSE}}{\partial \beta_j} = 0 ∂βj∂MSE=0
这通常通过矩阵运算实现:
β ^ = ( X T X ) − 1 X T y \hat{\beta} = (X^T X)^{-1} X^T y β^=(XTX)−1XTy
此中: