趋近智
使用您的本地LLM进行简单的提示练习。这些练习将演示如何运用提示、指令、上下文和温度。目标是让您熟悉与模型交互,并观察不同输入如何影响其响应。
为了进行这些操作,您需要运行本地LLM环境,最好使用上一章讨论过的工具之一,例如Ollama(通过命令行)或LM Studio(使用其图形界面)。对于这些初始练习,像phi3:mini这样的小型模型,或者3B/7B参数的GGUF格式模型通常就足够了,并且能提供更快的响应。
让我们从最直接的交互方式开始:提问。
ollama run phi3:mini(将phi3:mini替换为您选择的模型)。日本使用什么货币?谁画了蒙娜丽莎?2加2等于多少?日本的货币?告诉我日本的货币。列奥纳多·达·芬奇画了哪幅著名肖像?
模型给出相同的答案了吗?措辞上的微小变化有时会导致不同的响应或详细程度。现在,让我们从提问转向给LLM布置简单的任务。
写一句关于晴天的句子。创作一首关于机器人的两行诗。用一句话总结这段话:在过去十年中,人工智能研究取得了显著进展,这得益于计算能力、大数据集和算法创新的进步。许多应用程序现在很常见,从虚拟助手到推荐系统。改写这句话:会议因不可预见的情况而推迟。列出三种水果。提供在本地运行LLM的两个好处。上下文窗口在对话过程中作用类似于LLM的短期记忆。让我们看看它的实际作用。
/bye)并重新启动ollama run命令。我最喜欢的动物是水獭。(等待LLM的确认,通常是简单的“好的”或类似的话)。我最喜欢的动物是什么?
模型应该正确回忆出“水獭”,因为您之前的消息仍在其上下文窗口内。提示1: Python的常见用途是什么?提示2: 讲个笑话。我之前说我最喜欢的动物是什么?
根据中间对话的长度以及模型具体的上下文窗口大小,它可能仍然记得,也可能已经“忘记”了关于水獭的信息。这表明上下文窗口的大小是有限的。长对话中很早之前的信息可能会超出这个窗口,从而变得不可用于模型生成后续响应。如前所述,temperature(温度)参数控制着LLM输出的随机性。较高的值会产生更多样化、有时更具创造性的响应,而较低的值会产生更可预测、更集中的文本。注意:此设置在LM Studio等工具中易于访问,但在基本的Ollama命令行聊天会话中可能无法直接调整。
提示: 写一个描述魔法森林的句子。提示: 写一个描述魔法森林的句子。温度设置与LLM生成文本中观察到的多样性或随机性之间的关系。较低的温度会导致较少的随机性,而较高的温度会增加随机性。
这个练习有助于说明您如何影响LLM的输出风格。对于需要事实准确性或一致性的任务,通常首选较低的温度。对于创意写作或头脑风暴,较高的温度可能会产生更有趣的结果。
这些练习为与您的本地LLM交互提供了一个起点。不要犹豫继续尝试!尝试不同类型的问题、指令和模型。您练习得越多,就越能更好地制定能够获得所需响应的提示。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造