Smooth L1 loss(平滑 L1 损失)是一种常用于机器学习回归任务的损失函数,尤其常见于目标检测中的边界框回归。它在误差较小时表现得像 L2(平方误差,曲线更平滑、梯度更稳定),在误差较大时表现得像 L1(绝对误差,对异常值更不敏感),从而在“稳定训练”和“鲁棒性”之间取得折中。(在一些实现中,它与 Huber loss 关系非常接近或等同,只是参数化方式略有差异。)
/smuːð ɛl wʌn lɔːs/
The model uses Smooth L1 loss for bounding-box regression.
该模型使用 Smooth L1 损失来进行边界框回归。
In object detection, Smooth L1 loss helps reduce the impact of outliers while keeping gradients stable during training.
在目标检测中,Smooth L1 损失能降低异常值的影响,同时在训练过程中保持梯度更稳定。
“Smooth”意为“平滑的”,这里指损失函数在小误差区域的曲线更平滑、优化更稳定;“L1”指 L1 范数/绝对误差形式;“loss”是“损失函数”。该术语在深度学习论文与框架文档中广泛使用,尤其与目标检测模型的回归分支(例如边界框坐标回归)相关联。
torch.nn.SmoothL1Loss):工程实践中对该损失的标准实现与说明。