Residual block(残差块):深度学习(尤其是卷积神经网络)中的一种网络模块,通过“跳跃连接/捷径连接(skip/shortcut connection)”把输入直接加到若干层变换后的输出上(常见形式:y = F(x) + x),以缓解深层网络训练中的梯度消失、退化问题,使网络更容易训练、更深更稳。
/rɪˈzɪdʒuəl blɑːk/
Residual blocks help very deep networks train faster.
残差块能帮助非常深的网络更快地训练。
In a ResNet-style architecture, each residual block learns a correction to the input representation rather than rebuilding it from scratch.
在类 ResNet 的架构中,每个残差块学习的是对输入表征的“修正量”,而不是从零开始重建表征。
residual 源自拉丁语 residuum(“剩余物、残留”),表示“剩下的部分”;block 指“模块、块状结构”。“Residual block”作为术语主要在计算机视觉深度学习中普及,尤其因 ResNet(残差网络) 论文提出的残差学习框架而广为使用。