混合精度:在计算中(尤其是深度学习训练/推理),同时使用多种数值精度(常见如 FP16/BF16 与 FP32)来计算与存储,以在尽量保持精度与稳定性的前提下,提升速度、降低显存/内存占用与能耗。(也常写作 mixed-precision)
/ˌmɪkst prɪˈsɪʒən/
Mixed precision can make training faster.
混合精度可以让训练更快。
By using mixed precision with loss scaling, the model trained stably on large batches while reducing GPU memory usage.
通过配合损失缩放使用混合精度,模型在大批量数据上仍能稳定训练,同时降低了 GPU 显存占用。
该词由 mixed(混合的) + precision(精度) 组合而来。随着 GPU 与张量核心等硬件的发展,机器学习中逐渐形成“用低精度做大部分计算、用高精度保关键数值稳定性”的实践,于是 mixed precision 成为固定术语。