估算运行大型语言模型(LLM)所需的硬件可能看起来很复杂。一个直接的估算方法可以简化这一过程。决定内存需求的最主要因素,特别是图形处理单元(GPU)的显存(VRAM),是模型本身的规模,由其参数数量衡量。
可以把模型中的每个参数看作一个数字,需要存储在某个可用于计算的位置。由于GPU是运行LLM的主要计算设备(如第二章所述),这些参数主要加载到GPU的专用内存——显存中。
每个参数占用多少空间?这取决于存储时使用的精度或数据类型。常见的精度类型包含:
- FP32(单精度浮点): 每个参数占用32位,相当于4字节。这提供高精度,但需要更多内存。
- FP16(半精度浮点): 每个参数占用16位,即2字节。这使得内存需求大约是FP32的一半,通常对推理性能影响很小。
- INT8(8位整数): 每个参数仅占用8位,即1字节。这能进一步大幅减少内存使用,但有时会导致模型准确性出现可察觉的下降。这通常通过一个称为量化的过程来实现(我们在第三章简要介绍过)。
最常见的估算起点假设模型将使用FP16精度运行,因为它在内存使用和性能之间提供了良好的平衡。
基本计算
基于此,我们可以建立一个简单的经验法则来估算仅加载模型参数所需的最小显存:
所需显存(GB)≈10243(字节/GB)参数数量(十亿)×每参数字节数
然而,一个更简单的速算方法,尤其是对于FP16,常被使用:
所需显存(GB)≈参数数量(十亿)×2(FP16的字节数)
来看几个例子:
-
一个70亿参数模型(例如,Llama 2 7B):
- 使用FP16精度(2字节/参数):
VRAM≈7十亿×2字节=14十亿 字节
VRAM≈1024314×109≈13.04GB
因此,仅在FP16中容纳模型权重,您大约需要14 GB的显存。
- 使用FP32精度(4字节/参数):
VRAM≈7十亿×4字节=28十亿 字节
VRAM≈1024328×109≈26.07GB
以完整精度加载相同模型将需要约28 GB的显存。
- 使用INT8精度(1字节/参数,量化后):
VRAM≈7十亿×1字节=7十亿 字节
VRAM≈102437×109≈6.52GB
使用8位量化能大幅减少需求,大约降至7 GB的显存。
-
一个700亿参数模型(例如,Llama 2 70B):
- 使用FP16精度(2字节/参数):
VRAM≈70十亿×2字节=140十亿 字节
VRAM≈10243140×109≈130.36GB
这个更大的模型在FP16下需要约140 GB的显存。这通常需要多块高端GPU。
仅用于存储70亿参数模型在不同数值精度下的参数所需的预估显存。
重要考量
这个经验法则提供了一个存储模型参数的基准估算。它是确定您的硬件是否可能足够的一个基本起点。然而,请记住,此计算仅考虑模型权重本身。运行模型不仅仅是存储它。正如我们接下来会讨论的,推理时的激活、输入提示和生成输出的长度(上下文长度)以及软件开销等因素将消耗额外的显存。因此,您应始终预留更多显存,超出这个简单计算所建议的量。