趋近智
与大型语言模型(LLM)进行有效交流,取决于对提示工程 (prompt engineering)艺术与技巧的掌握。提示是指导模型行为的主要工具。把它看作是为一位能力很强但有时会逐字理解的助手提供指令或设定任务,而不是简单的搜索查询。编写清晰、具体并提供足够背景信息的提示,是你实现Python应用中可靠和有用结果的根本保证。
让我们分析支撑有效提示的要点原则。遵循这些指导方针将显著提升LLM响应的质量和可预测性。
模糊是良好LLM输出的敌人。模糊的提示常导致宽泛、无用甚至错误的响应,因为模型有太多解释空间。
append()和pop()等常用方法,并提供一个简单的代码示例。”思考一下区别:
prompt = "Summarize this article."prompt = "Summarize the main findings of the following article in three bullet points, suitable for a non-technical audience."第二个提示就所需输出格式、目标受众和侧重,为模型提供了更清晰的指令。
LLM不具备你具体情况或对话前几部分的固有知识,除非你提供。背景信息能帮助模型定位,使其能生成更相关和准确的响应。
示例:
prompt = "Is this approach suitable?" (模型不知道“这种方法”是什么)。original_code = """
def process_data(data):
# ... 复杂处理 ...
return result
"""
prompt = f"""
给定以下Python代码:
{original_code}
我计划重构它,通过将其拆分为更小的辅助函数来提高可读性。
这种方法适合提升可维护性吗?请解释原因。
"""
这个提示提供了必要的代码和用户目标,使LLM能够提供有见地的建议。指导LLM扮演特定角色或身份,能显著影响其响应的风格、语气、深度和侧重。这有助于使输出符合预期。
示例:
prompt = "Explain the benefits of using virtual environments in Python."prompt = "Act as a Python programming instructor. Explain the benefits of using virtual environments in Python to a beginner programmer, emphasizing why it prevents dependency conflicts."角色设定鼓励使用教学语气,并将解释侧重于与目标受众相关的一个特定好处。
LLM可以生成多种格式的文本。明确要求特定结构,能使输出更可预测,也更容易解析或直接在你的应用代码中使用。
示例:
prompt = "Extract the main points from the meeting notes."meeting_notes = """
会议记录 - 凤凰项目启动
参会者:爱丽丝、鲍勃、查理
日期:2023-10-27
- 爱丽丝介绍了项目目标:2024年第一季度前启动。
- 鲍勃讨论了资源分配。还需要2名工程师。
- 查理概述了初始技术栈:Python, FastAPI, PostgreSQL。
- 行动项:鲍勃下周前完成工程师分配。联系方式:[email protected]
"""
prompt = f"""
从以下会议记录中:
---
{meeting_notes}
---
提取项目名称、参会者(字符串列表形式),以及任何行动项(包含负责人和截止日期,如果提及)。
以JSON对象形式提供输出,键为:'project_name', 'attendees', 'action_items'(一个对象列表,每个对象包含'task', 'owner', 'deadline')。
如果未找到某个值,则使用null。
"""
这指导LLM生成易于解析的JSON:
{
"project_name": "凤凰项目",
"attendees": ["爱丽丝", "鲍勃", "查理"],
"action_items": [
{
"task": "完成工程师分配",
"owner": "鲍勃",
"deadline": "下周"
}
]
}
通过定义模型应该做什么和不应该做什么来指导它。这有助于防止不相关、不合需要或不安全的内容。
示例:
prompt = "Write a comparison between LangChain and LlamaIndex."prompt = "Write a balanced comparison between LangChain and LlamaIndex for building RAG systems. Focus on their core strengths in data indexing and workflow orchestration. Keep the tone objective and avoid declaring one as definitively 'better'. Limit the response to two paragraphs."尽管复杂的提示可以获得复杂的结果,但通常最好从简单的提示开始,然后逐步完善。
这个迭代过程比试图一次性完善一个高度复杂的提示更易于管理。它能够有条理地进行调试和改进。
提示完善的迭代方法。
掌握这些原则,为提示工程 (prompt engineering)打下了坚实的底子。通过在指令中做到清晰、提供背景、注意角色、指定格式和设定限制,并采用迭代完善过程,你将显著提高你从LLM获取高质量、可预测响应的能力,在你的Python应用中。这些要点为少样本提示等更高级技术铺平了道路,我们接下来将分析这些技术。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•