InternLM/doc/code-docs/source/mixed_precision.rst

37 lines
1.4 KiB
ReStructuredText
Raw Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

混合精度
-----------------
混合精度是指在模型训练的过程中同时使用16位和32位浮点类型是一种在最小化精度损失的前提下加速模型训练的方法。
混合精度通过让模型的某些部分使用32位浮点数以保持数值稳定性并在其余部分利用半精度浮点数加速训练并可以减少内存使用在评估指标如准确率方面仍可以获得同等的训练效果。
.. autoclass:: internlm.core.naive_amp.NaiveAMPModel
InternLM默认将模型转换为16位精度进行训练在配置文件中可以设置默认类型为其他数据类型。在使用混合精度时需要在构建模型时使用
.. code-block:: python
set_fp32_attr_to_module(/*fp32 module*/)
将模型的某个子模块设置为32精度进行训练InternLM会在模型训练时自动将数据类型转换成需要的精度。
例如:
.. code-block:: python
class MlpModel(nn.Module):
def __init__(self):
super().__init__()
self.linear1 = nn.Linear(4, 1, bias=False)
self.linear2 = nn.Linear(1, 4, bias=False)
model = MlpModel()
# set model.linear2 as fp32 module
set_fp32_attr_to_module(model.linear2)
# apply mixed precision
model = NaiveAMPModel(
model=model,
output_to_fp32=True,
dtype=torch.bfloat16(),
sync_buffer=False,
)