网页界面固然提供了一种直接与大型语言模型互动便当途径,但它们常需要手动输入和复制粘贴。如果您希望将大型语言模型的功能直接整合到自己的应用程序中,自动化文本生成任务,或无需每次点击按钮就处理大量提示,那该怎么办呢?此时,应用程序接口(API)便可发挥其效用。可以将API看作是不同软件程序之间相互通信的一种规范方式。您的程序可以直接向大型语言模型服务提供商的系统发送请求,而非人工在网站上输入,随后该系统会将响应发回给您的程序。什么是API?API是“应用程序接口”的缩写。我们来逐一解析:应用程序: 指的是任何软件程序,例如大型语言模型服务本身,或您编写的用于与其互动交流的程序。编程: 表示这种通信通过代码进行,从而实现自动化和整合。接口: 这是两个应用程序之间的连接点或约定。它规定了请求应如何格式化以及预期接收何种响应。设想在餐厅点餐的情形。您不会亲自进入厨房。相反,您与服务员(接口)互动。您使用菜单(已规定好的规则/选项)提出请求,服务员将您的订单带到厨房(服务提供商),并把您的食物(响应)带回。API对于软件的工作方式也类似:它提供了一种规定好的方式,让您的应用程序(顾客)可以向另一个应用程序(大型语言模型厨房)请求服务(如文本生成),而无需了解厨房的内部运作细节。digraph G { rankdir=LR; node [shape=box, style=filled, fillcolor="#e9ecef", fontname="sans-serif"]; edge [fontname="sans-serif"]; Client [label="您的应用程序\n(例如,脚本、网站)", fillcolor="#a5d8ff"]; Server [label="LLM服务提供方\n(模型托管方)", fillcolor="#b2f2bb"]; Client -> Server [label=" API请求 \n (提示词、参数) "]; Server -> Client [label=" API响应 \n (生成文本) "]; }您的应用程序与大型语言模型服务之间API通信的简化示意图。为何要使用LLM API?相比网页界面,使用大型语言模型API具备多项优势,特别是当您的需求日趋复杂时:自动化: 您可以编写脚本或程序来自动发送提示并处理响应。这对于需要频繁重复执行或无人干预的任务而言非常重要。整合: API使您能够将大型语言模型能力直接嵌入到自己的软件中。您可以构建聊天机器人,为文档编辑器添加智能摘要功能,或创建由大型语言模型驱动的定制内容生成工具。定制与控制: API通常比网页界面提供对大型语言模型行为更精细的控制。您或许能够调整响应的创造性(常被称为temperature)、最大输出长度(max_tokens)等参数,以优化输出结果。规模化: 如果您需要处理成百上千的提示,通过网页界面手动操作是不切实际的。API旨在以程序方式处理请求,使得大规模使用大型语言模型成为可能。核心要点(简化版)使用大型语言模型API时,您会接触到一些基本要点:请求: 这是您的应用程序通过API发送给大型语言模型服务的消息。它通常包含您的提示(您希望大型语言模型处理的文本)以及指定模型如何表现的任何参数。响应: 这是大型语言模型服务发送回您的应用程序的消息。它通常包含大型语言模型生成的文本,以及状态码或使用详情等其他信息。端点: 这是大型语言模型服务提供的特定网址(URL),您的应用程序将请求发送到此地址。针对不同的任务或模型版本,可能存在不同的端点。认证: 大多数API要求您识别您的应用程序身份,通常使用一串称为API密钥的独特字符。这确保只有授权用户才能访问该服务,并有助于提供商追踪使用情况。您通常在注册大型语言模型服务时获得一个API密钥。理解这些要点为使用大型语言模型API打下了根基。尽管通过网页界面互动是一个不错的起始,但API为构建更强大、更整合的应用程序提供了更多空间。在接下来的章节中,我们将学习如何构建和发送您的第一个API请求,以及如何解析收到的响应。