FP16 指“16 位浮点数格式”(通常对应 IEEE 754 half-precision 半精度浮点),常用于图形计算与深度学习训练/推理中,以降低显存占用并提升吞吐量(有时会配合 mixed precision 混合精度来减少精度损失)。
/ˌɛf piː sɪkˈstiːn/
Many GPUs can run FP16 operations faster than FP32.
许多 GPU 执行 FP16 运算的速度比 FP32 更快。
We trained the model with mixed precision, keeping most tensors in FP16 while accumulating gradients in FP32 to improve stability.
我们用混合精度训练模型:大多数张量用 FP16,但梯度累积用 FP32,以提高数值稳定性。
FP 是 floating point(浮点)的缩写,16 表示位宽为 16 位;“FP16”这一写法在计算机体系结构、GPU 编程与机器学习工程中广泛流行,用来简洁指代“半精度浮点”相关的存储与计算。