趋近智
“模型通常需要持续学习。虽然微调能使预训练模型适应特定任务或情境,但模型常需按序学习。初始适应阶段后,可能会有新数据到来、需求变化或需要额外技能。这一过程,称为顺序适应或持续学习,是指在不每次从头开始微调的情况下,更新一个已经微调过的模型,以引入新的信息或能力。”
设想一个基于历史支持工单微调的客服聊天机器人。随着新产品的推出或公司政策的变化,聊天机器人需要吸收这些新信息。如果仅仅用新数据来微调现有模型,会面临一个重要问题:灾难性遗忘。
灾难性遗忘指的是神经网络(包括大语言模型)在学习新任务时,会突然丧失在之前任务上表现的能力。在标准微调过程中,梯度更新会修改模型参数,以减少当前批次数据(来自新任务)的损失。这些更新可能会覆盖对之前任务表现良好的参数配置,从而实际上抹去之前获得的知识。
设想一个模型,先针对任务A(例如,总结医疗报告)进行微调,然后针对任务B(例如,回答患者关于药物的问题)进行后续微调。如果没有特别的干预,任务B的微调过程可能会大幅降低模型执行任务A的能力,即使任务A在不久前才成功习得。
朴素顺序适应的示意图。直接在任务B上进行微调会修改为任务A学习的参数,可能导致原始任务的性能下降。
顺序适应在多种实际情况中都适用:
解决灾难性遗忘是成功顺序适应的中心议题。下一节将详细介绍具体的缓解技术,主要方法包括:
顺序适应围绕着管理稳定性-可塑性困境。模型需要足够的可塑性来有效学习新信息,但也需要稳定性来保留现有知识。朴素的微调方法能最大限度地提高可塑性,但稳定性较差(灾难性遗忘)。反之,过度约束模型可能会保留旧知识,但会妨碍其适应新任务的能力。
有效的持续学习策略旨在达成平衡,使模型能够随时间优雅地积累知识和技能。这需要仔细考量所选的适应技术、数据管理、计算预算以及如何衡量所有已学习任务的性能。
下一节将更详细地检验旨在缓解灾难性遗忘的特定方法,从而实现大语言模型更有效的顺序适应。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造