构建LLM应用程序需要安装特定的Python包。为此,一个合适的Python环境是必需的,这包括选定Python版本、激活虚拟环境以及了解如何使用pip和requirements.txt管理依赖。LLM开发的Python生态系统活跃且在增长,但有几个库对于本课程中将构建的工作流程特别重要。我们将侧重于安装用于编排、数据处理和API交互的主要工具。核心工作流程库这些库提供高级抽象,以构建LLM应用。LangChain: 这是一个为开发由语言模型驱动的应用而设计的框架。它提供模块化组件,用于处理LLM、管理提示、串联调用序列、与外部数据连接以及创建自主智能体。我们将广泛使用LangChain来构建和管理工作流程。要安装LangChain核心包,请使用pip:pip install langchainLangChain将与特定LLM提供商和其他工具的集成保持在独立的包中,以提高模块化程度。例如,要在LangChain中使用OpenAI模型,您可以安装:pip install langchain-openai同样,对于Anthropic模型:pip install langchain-anthropic您通常可以一次安装多个附加项:pip install 'langchain[openai,anthropic]'我们将在后面的章节中根据需要介绍具体的集成。目前,安装核心langchain以及您打算使用的提供商包(如langchain-openai)是一个不错的开始。LlamaIndex: 这个库专注于将LLM与外部数据源连接起来。它擅长数据摄取(加载文档、网页等)、高效地索引这些数据(通常使用向量嵌入),并提供查询接口,以便为您的LLM检索相关上下文。它对于构建检索增强生成(RAG)系统特别有用。使用pip安装LlamaIndex:pip install llama-indexLlamaIndex也有针对特定数据加载器、向量存储或LLM的可选依赖项,可按需安装。LLM提供商客户端库尽管LangChain等库可以抽象化直接的API调用,但您有时可能需要或更喜欢使用LLM供应商提供的官方客户端库。这些库提供对模型提供商API端点的直接访问。OpenAI: 如果您计划使用GPT-4或GPT-3.5 Turbo等模型。pip install openaiAnthropic: 用于使用Claude等模型。pip install anthropic其他: 根据提供商(例如,Cohere,Google Gemini),您需要安装其对应的Python包。安装与您有权访问并计划使用的LLM服务相关的客户端库。请记住安全地处理相应的API密钥,正如前一节中讨论的那样。辅助库几个其他库是LLM开发工作流程中常用的:python-dotenv: 用于管理环境变量,特别是将API密钥从.env文件加载到您的环境中。pip install python-dotenvrequests: Python中用于发起HTTP请求的标准库。尽管通常被客户端库或LangChain等框架封装,但将其用于直接API交互或调试是一个良好的习惯。它通常作为其他包的依赖项安装,但明确安装也无妨。pip install requests向量存储: 对于RAG应用(第7章将介绍),您将需要一个库来管理向量嵌入。常见的本地运行选项包括:ChromaDB: 一个开源嵌入式数据库。pip install chromadbFAISS: 一个由Facebook AI开发的、用于高效相似度搜索的库。安装有时会更复杂,特别是如果需要GPU支持的话。对于CPU使用:pip install faiss-cpu我们将在后面更详细地讨论向量存储,但安装像chromadb这样的库会为您的环境进行RAG任务做好准备。更新您的requirements.txt安装这些核心库后,重要的是更新您的requirements.txt文件,以反映您虚拟环境的当前状态。这可保证可重复性。在您已激活的虚拟环境中运行以下命令:pip freeze > requirements.txt此命令列出所有已安装的包及其确切版本,并将它们保存到requirements.txt文件中。您的文件可能看起来像这样(版本会有所不同):# requirements.txt langchain==0.1.16 langchain-core==0.1.45 langchain-openai==0.1.3 llama-index==0.10.25 openai==1.16.1 python-dotenv==1.0.1 requests==2.31.0 chromadb==0.4.24 # ... 其他依赖项 ...将此更新后的requirements.txt文件提交到您的版本控制系统(例如,Git)。验证安装您可以进行快速检查,以确认主要库已正确安装,方法是在您的终端中(在已激活的虚拟环境内)启动Python解释器并导入它们:import langchain import llama_index import openai # 或您安装的其他提供商库 print("库已成功导入!")如果运行此命令没有出现ModuleNotFoundError,则您的核心库已安装并可以使用了。安装这些基本包后,您的Python环境现在已准备好与LLM交互、构建工作流程和处理外部数据。在下一章中,我们将开始通过使用Python直接与LLM API交互来应用这些内容。