BF16(也写作 bfloat16)是一种16 位浮点数格式,常用于深度学习训练与推理中的混合精度计算。它通常保留与 FP32 相同的指数位宽、减少尾数精度,从而在速度、显存/带宽占用与数值范围之间取得平衡。(在不同语境里也可能指其他缩写,但计算领域最常见的是 bfloat16。)
/ˌbiːˌɛf sɪksˈtiːn/
We trained the model using BF16.
我们使用 BF16 来训练模型。
Switching to BF16 reduced memory usage while keeping the training stable on the TPU.
切换到 BF16 降低了内存占用,同时在 TPU 上保持了训练的稳定性。
BF16 来自 bfloat16:其中 b 常被解释为 brain(与 Google Brain 的早期使用相关),float16 表示“16 位浮点”。它被设计为在保持较大数值范围(类似 FP32 的指数范围)的同时,牺牲部分精度以提升硬件效率。