Mixed-Precision Training, Paulius Micikevicius, Sharan Narang, Jonah Alben, Gregory Diamos, Erich Elsen, David Garcia, Boris Ginsburg, Michael Houston, Oleksii Kuchaiev, Ganesh Venkatesh, Hao Wu, 2017International Conference on Learning Representations (ICLR) 2018DOI: 10.48550/arXiv.1710.03740 - 这篇开创性论文介绍了使用 float16 的混合精度训练以及通过损失缩放来缓解数值下溢的概念。
BFloat16: A New Standard For Deep Learning, Neal H. Liu, Norman P. Jouppi, 2019 (Google AI Blog) - 描述了 bfloat16 格式及其在深度学习中的优势,特别是与 float16 相比更宽的动态范围,以及其在 Google TPU 中的应用。
JAX documentation for Data types (dtypes), JAX Authors and Contributors, 2024 (JAX Documentation) - 详细介绍了 JAX 对数值数据类型的处理,包括 jnp.float16 和 jnp.bfloat16,这对于理解 JAX 中的类型兼容性至关重要。
Mixed precision in Flax, Flax Authors and Contributors, 2024 (Flax Documentation) - 在 Flax 框架内配置和实现混合精度训练的实用指南,涵盖了 param_dtype 和 dtype 设置。