趋近智
大型语言模型,常缩写为LLMs,代表着人工智能的一项重要进展,尤其在自然语言处理(NLP)方面。其核心是深度学习 (deep learning)模型,这些模型在海量的文本数据上进行训练,这些数据通常来源于互联网、书籍、代码库及其他文本资源。术语“大型”主要指两方面:用于训练的数据的庞大体量(数TB)和模型拥有的庞大参数 (parameter)数量(从数十亿到数万亿)。
这些参数本质上是模型在训练过程中学到的变量,使其能够捕捉人类语言中的模式、语法结构、语义关系,甚至类推理 (inference)能力。多数现代LLM都基于Transformer架构,该架构在论文《Attention Is All You Need》中被提出。虽然对该架构的分析不在此节中详述,但主要的一点是,其设计允许模型在生成输出时,权衡输入序列中不同词语(或标记 (token))的重要性,从而有效地处理文本中的长距离依赖关系。
可以将LLM看作一个非常先进的文本补全引擎。给定一段输入文本序列(即“提示”),其核心运作方式是预测下一个最可能的词或标记,然后是再下一个,以此类推,从而生成连贯且上下文 (context)相关的文本。
这种预测能力转化为了一系列多样的技能,开发者可将其用于各类应用:
交互模式直接明了:你提供一个输入提示,LLM生成一个文本回复。
大型语言模型交互流程的简化示意。
尽管LLM拥有令人印象深刻的能力,但在构建应用时理解它们的局限性非常重要:
理解这些能力和局限性非常重要。LLM并非拥有完美记忆的数据库或不会犯错的推理 (inference)引擎。它们是强大的模式匹配和生成工具,其行为通过精心设计的输入来引导。本课程专注于提示工程,正是因为它提供了有效指导这些模型的方法,在发挥其优点同时减轻其缺点,从而构建有用且可靠的应用。你与LLM交互和控制它的主要工具就是你提供的提示。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•