ResNet的天才之处在于提出了一个反直觉的假设:让网络学习"残差"而非直接学习输出。其焦点计划是在传统卷积层间插入跳跃连接(Shortcut Connection),形成残差块(Residual Block)。 数学公式:
y = F ( x , W ) + x y = F(x, W) + x y=F(x,W)+x
此中,( F(x, W) ) 是残差函数,( x ) 是输入信号的直接传递。 关键作用:
梯度回传"高速公路":跳跃连接答应梯度绕过中间层直接回传,避免梯度消失。
学习目的简化:网络只需拟合残差 ( F ( x , W ) = y − x ) ( F(x, W) = y - x ) (F(x,W)=y−x),而非复杂的直接映射 ( y = F ( x , W ) ) ( y = F(x, W) ) (y=F(x,W))。