V2EX  ›  英汉词典
Enqueued related words: Float64

FLOAT16

释义 Definition

float16(也写作 Float16FP16half-precision floating point)指16 位浮点数格式,常用于机器学习、图形计算与高性能计算中,用更少的内存与带宽换取更快的运算,但相较 float32 精度与可表示范围更有限。(在不同标准/硬件中实现细节可能略有差异,最常见的是 IEEE 754 半精度。)

发音 Pronunciation (IPA)

/floʊt sɪkˈstiːn/

例句 Examples

We stored the model weights in float16 to save memory.
我们把模型权重用 float16 存储,以节省内存。

Although float16 speeds up training on modern GPUs, you may need loss scaling to reduce underflow and keep gradients stable.
尽管 float16 能在现代 GPU 上加速训练,但你可能需要使用损失缩放来减少下溢,并保持梯度稳定。

词源 Etymology

float16float(浮点数)+ 16(16 位)构成,字面意思就是“16 位的浮点格式”。在计算与工程语境里,数字后缀常用来指代数据类型的位宽(如 int8、float32 等)。

相关词 Related Words

文学与作品 Literary Works

  • Deep Learning(Ian Goodfellow, Yoshua Bengio, Aaron Courville)——在讨论数值计算、训练与实现细节的相关内容中常涉及低精度表示(包括半精度/FP16 的实践背景)。
  • NVIDIA CUDA C Programming Guide(技术手册)——介绍 GPU 计算与数据类型时会提到 half/FP16 等半精度支持与使用场景。
  • Mixed Precision Training(研究论文与技术报告,如 NVIDIA 相关白皮书/博客与学术论文)——以 FP16/float16 为核心,讨论用更低精度加速深度学习训练的方法与注意事项。
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2143 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 17ms · UTC 13:38 · PVG 21:38 · LAX 05:38 · JFK 08:38
♥ Do have faith in what you're doing.