趋近智
元学习问题的特点是其结构,涉及任务、支持集 (Si) 和查询集 (Qi)。为了管理为解决此问题而设计的各种算法,有必要进行系统性分类。元学习算法通常根据其实现快速适应的核心机制分为三大类。这些类别提供了一个有用的结构,尽管有些算法可能包含不止一个类别的元素。主要观点有:
让我们更详细地分析每个类别。
常见的元学习方法分类,基于它们实现快速适应的主要机制。
这一类算法旨在找到一组初始模型参数 θ,这些参数对基于新任务数据的变化高度敏感。元目标通常是在使用相应的支持集 Si 进行少量梯度更新后,最小化查询集 Qi 上的损失。
最有代表性的例子是模型无关元学习 (MAML)。在MAML中,对于元训练期间采样的每个任务 Ti,内循环在支持集 Si 上执行一步或多步标准梯度下降,以获得任务适应的参数 θi′。
θi′=θ−α∇θLSi(θ)外循环然后通过对这一内部更新步骤进行微分,并使用查询集 Qi 上的表现,来更新初始参数 θ。这需要计算二阶导数(梯度的梯度),通常称为元梯度。
θ←θ−β∇θTi∑LQi(θi′)=θ−βTi∑∇θLQi(θ−α∇θLSi(θ))变体,例如一阶MAML (FOMAML) 和 Reptile,通过忽略二阶项来简化此过程,大幅降低了计算成本,但可能改变优化动态。隐式MAML (iMAML) 使用隐式微分来更稳定和高效地计算元梯度,特别是对于许多内部步骤的情况。
对于基础模型,θ 的高维度使得计算和存储完整的二阶梯度极其昂贵。这促使使用一阶近似或专门为大规模设计的技术,我们将在第2章分析这些。
度量方法不优化参数以进行梯度更新,而是学习一个嵌入函数 fϕ,将输入映射到一个空间,在该空间中,相似性对应于类别成员资格或任务关联。适应通常涉及在这个学习到的空间中,使用距离度量(例如,欧几里得距离)或一个学习到的相似性函数来比较查询示例和支持示例。
原型网络是一个知名的例子。它们通过平均其示例的嵌入,为支持集 Si 中存在的每个类别 k 计算一个“原型”表示 ck:ck=∣Si,k∣1∑xj∈Si,kfϕ(xj)。查询点 xq 的分类然后通过对原型距离的softmax进行:
p(y=k∣xq)=∑k′exp(−d(fϕ(xq),ck′))exp(−d(fϕ(xq),ck))其他值得注意的方法包括匹配网络(使用注意力机制计算支持集示例的加权组合进行查询预测),以及关系网络(采用一个独立的神经网络模块来学习查询和支持示例嵌入之间的非线性相似性得分)。
这些方法通常严重依赖于学习到的嵌入函数 fϕ 的质量。当使用基础模型时,可以直接运用强大的预训练表示,或在元训练期间微调嵌入函数。将这些技术适应到来自基础模型的极高维度嵌入带来独特的挑战,这些将在第3章进一步讨论。
这种观点更广泛地将元学习视为学习优化过程本身的各个方面。这些方法不只是学习一个初始参数集 θ,还可能学习更新规则、学习率或其他优化超参数。
一种方法是学习优化 (L2O),其中一个独立的神经网络(元学习器,通常是像LSTM这样的RNN)被训练来输出基础模型(学习器)的参数更新。元学习器观察学习器的梯度和状态,并提出旨在快速最小化任务损失的更新 Δθt。
θt+1=θt+Δθt其中Δθt=gψ(∇θtL(θt),ht)在这里,gψ 是由 ψ 参数化的元学习器,且 ht 是其内部状态。参数 ψ 在许多任务上训练,以产生高效的优化轨迹。
此外,许多元学习算法,包括MAML,都可以从形式上通过双层优化的角度来理解。外层优化调整元参数(例如MAML中的初始权重 θ,或L2O中的元学习器 ψ),以最小化一个外层目标(例如,适应后的查询集损失)。内层优化使参数适应特定任务(例如,最小化支持集损失)。这种观点,将在第4章讨论,为分析和开发元学习算法提供了一个强大的体系。学习最优初始化,尽管通常与基于梯度的方法相关联,但本质上也是一个在这个体系内解决的优化问题。
每个类别都有优缺点。基于梯度的方法通过梯度直接优化适应性能,但计算量可能很大,且对优化细节敏感。基于度量的方法通常更易于实现,且在测试时计算成本更低,但严重依赖于嵌入空间的质量和所选的度量。基于优化的方法在调整学习过程方面提供灵活性,但训练和分析可能很复杂。
选择通常取决于具体问题、任务的性质、计算预算,以及目标主要是快速适应现有参数还是从头学习有效的表示。在基础模型的背景下,可扩展性和预训练知识的高效利用成为主要考虑因素,影响不同方法的适用性,并促使采用混合策略或专门的适应技术,正如我们将在后面的章节中看到。理解这些基本类别对于掌握有效适应大型模型所需的先进技术是必要的。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造