V2EX  ›  英汉词典
Enqueued related words: Ieee 754

Bfloat16

释义 Definition

bfloat16(也常写作 BF16)是一种 16 位浮点数格式,常用于机器学习训练与推理。它的特点是:保留与 32 位浮点数(FP32)相同的指数位宽(动态范围大),但尾数精度较低,因此在许多深度学习计算中能在较小内存与更高速度下保持较稳定的数值范围。

发音 Pronunciation (IPA)

/ˈbiːfloʊt sɪkˈstiːn/

例句 Examples

Bfloat16 is widely used to speed up deep learning training.
bfloat16 被广泛用于加速深度学习训练。

By storing activations in bfloat16 while accumulating in fp32, the model can train faster without losing too much accuracy.
将激活值以 bfloat16 存储、同时用 fp32 做累加,模型通常能在不过多损失精度的情况下更快训练。

词源 Etymology

bfloat16 中的 “b” 通常被解释为 “brain”(与早期面向神经网络/“大脑”计算的语境相关),整体可理解为 “brain floating point 16”。该格式与 Google 的 TPU 生态及深度学习加速实践关系密切,设计目标是在硬件上以较低成本支持大规模神经网络计算。

相关词 Related Words

文献与作品 Literary / Notable Works

  • TensorFlow Documentation(TensorFlow 官方文档中大量讨论 bfloat16 / mixed precision 的使用场景)
  • XLA: Optimizing Compiler for Machine Learning(XLA 相关资料与文档常涉及 bfloat16 的算子与布局支持)
  • Jouppi et al., *In-Datacenter Performance Analysis of a Tensor Processing Unit (TPU)*(介绍 TPU 体系与低精度计算实践的经典论文之一,相关材料常与 bfloat16 一并被引用)
  • Google Cloud TPU Documentation(Google Cloud TPU 文档中对 bfloat16 的训练/推理支持有明确说明)
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2143 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 13:38 · PVG 21:38 · LAX 05:38 · JFK 08:38
♥ Do have faith in what you're doing.