趋近智
在之前的章节中,我们讲到大型语言模型通过处理海量文本数据来学习。这个训练过程计算量大,需要大量算力、庞大的数据集和可观的时间。这是一项复杂的任务,通常由拥有雄厚资源的大型研究机构或公司来完成。
预训练模型是大型语言模型(LLM)完成其训练阶段后的结果。可以把预训练模型看作一个已经完成了基础教育的LLM。它通过分析庞大的训练数据集,学习了语法、事实(如其训练数据中所示)、推理能力和语言模式。
“预训练”这个标签表明,模型创建中最耗费资源的部分已经完成。开发者已经投入时间和计算资源,将这些基础知识构建到模型的参数中,即模型用于做出预测的内部变量。
使用预训练模型有几个重要的好处,特别是对于初学者来说:
设想一下,从零开始构建一个复杂的软件库(比如图形引擎),与使用一个已有的、完善的库,两者有何不同。预训练模型就像那些已建成的库;它们提供了一个强大的支撑,你可以在此基础上进行开发或直接使用。
理解“预训练”意味着模型具有坚实的通用基础,但它不一定立即专门针对你可能想到的每个特定任务。它的知识通常也停留在其训练数据收集的时间点;它通常无法获取实时信息,除非是为此特别设计的(例如与搜索引擎集成)。
主要观点是,学习语言基本原理的艰巨工作已经完成。你作为与预训练LLM交互的用户,你的任务通常是使用提示词将现有知识引向你的具体目标,这我们在第三章中讲过。
在接下来的章节中,我们将了解如何通过各种服务和平台找到这些预训练模型,以及如何使用简单的工具(如网页界面或基本编程接口(API))开始与它们交互。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造