趋近智
既然我们明白了参数 (parameter)是大型语言模型在训练期间学习到的可调整数值,那么接下来的问题就是:我们如何量化 (quantization)这些巨型模型的“大小”?
衡量大型语言模型大小最常用和标准的方式是计算其可训练参数的总数。就像我们之前谈到的,可以把这些参数看作模型调整的内部旋钮和刻度盘,以此学习其训练所用语言数据中的模式与联系。
为什么使用参数数量?它直接表明了模型的潜在复杂性和容量。参数较多的模型通常能存储更多信息,捕捉语言中更精细的差异,并在复杂任务上表现得更好,相比之下,参数较少的模型则不然。它是衡量模型能力的一个有用的替代指标,尽管不完美。
你会经常听到大型语言模型的尺寸以一个特定单位来讨论:十亿个参数。这通常缩写为“”。例如:
如此庞大的规模正是大型语言模型中“大型”一词的由来。这些数字比许多早期类型的机器学习 (machine learning)模型中的数字要大得多。
不同大型语言模型尺寸类别的近似参数数量。垂直轴上的对数刻度有助于呈现这些尺寸之间巨大的量级差异。
参数数量这一衡量方式对本课程很重要,因为它直接影响所需的计算资源。我们会看到,更多的参数通常意味着更高的内存(例如GPU中的显存 (VRAM))和处理能力要求。了解参数数量是评估您可能需要哪些硬件的第一步。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•