Huber loss(胡贝尔损失)是一种用于回归任务的损失函数,结合了 平方误差(L2) 在误差较小时的平滑性与 绝对误差(L1) 在误差较大时的鲁棒性。它对离群点(outliers)不那么敏感,常用于稳健回归与机器学习训练。
常见形式(以阈值 (\delta) 表示“转折点”):
/ˈhuːbər lɔs/
The model was trained with Huber loss to reduce the impact of outliers.
为了减小离群点的影响,这个模型使用 Huber loss 进行训练。
When the residuals are small, Huber loss behaves like mean squared error, but for large errors it becomes more like mean absolute error, which often stabilizes training on noisy data.
当残差较小时,Huber loss 的表现类似均方误差;但误差变大时,它更像平均绝对误差,这通常能让模型在噪声数据上训练得更稳定。
“Huber”来自统计学家 Peter J. Huber(彼得·J·胡贝尔) 的姓氏。Huber loss 最初出现在稳健统计(robust statistics)与稳健回归的研究中,用于在“对小误差敏感(易优化)”与“对大误差不被极端值主导(更鲁棒)”之间取得折中。“loss”意为“损失”,在机器学习中指优化目标函数的一种度量。