趋近智
可以把中央处理器(CPU)看作是电脑的主要处理器或“大脑”。它是几乎所有计算设备(从笔记本电脑、台式机到服务器和智能手机)中都必不可少的一个硬件部件。CPU 的主要作用是执行程序指令、进行计算并管理系统的整体运行。
在一部普通电脑中,CPU 处理许多不同种类的任务。当你上网、编写文档或运行大多数标准软件时,CPU 承担着大部分工作。它的设计用途很广,能够非常快速地一个接一个处理复杂的顺序指令。你可以把它想象成乐队的指挥,指挥系统中的不同部分,管理资源,并确保任务按正确顺序完成。大多数 CPU 都有少数几个性能强大的核心,这些核心经过优化,能有效执行这些不同的指令。
那么,在处理大型语言模型时,CPU 是如何发挥作用的呢?虽然我们很快就会了解到图形处理器(GPU)承担了 LLM 最耗时的计算,但 CPU 仍有不可或缺的辅助功能。
运行 LLM 时,CPU 通常会执行以下操作:
然而,使 LLM 运作的计算任务,例如大型矩阵乘法和同时执行数十亿次计算,并不太适合 CPU 的架构。CPU 擅长处理复杂的单一任务,但 LLM 需要许多相对简单的计算同时进行。这种同时进行的运算正是 GPU 的优势所在。
因此,虽然 CPU 对于电脑正常运行和管理 LLM 的整体过程来说必不可少,但它通常不是在推理(生成文本的过程)期间为大型模型执行主要计算的部件。可以把它看作是统筹工作的管理者,而专业的“工作人员”(GPU,我们接下来会讨论)则处理 LLM 本身所需的最繁重、重复的劳动。明白这种差异对于理解为何针对不同 AI 任务推荐特定硬件很有价值。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造