"虽然联邦平均(FedAvg)为聚合客户端更新提供了一个简单的基准方法,但其在具有系统异构性的联邦网络中性能可能会明显下降。客户端通常拥有不同的计算能力(CPU、内存)、网络带宽和功耗限制。这种异构性导致每个客户端在给定通信轮次中能够执行的本地计算量不同。有些客户端可能完成很多本地训练周期(E),而其他客户端只能完成少量。"
标准的FedAvg聚合客户端模型(或更新)时,通常根据数据点数量(nk)进行加权。然而,它没有明确考虑为完成这些更新所执行的不同本地工作量(τk,即客户端k执行的本地梯度步数或更新次数)。当τk在不同客户端之间差异很大时,FedAvg可能会出现以下问题:
- 客户端漂移不匹配: 执行更多本地步骤的客户端的更新可能表示模型已偏离初始全局模型wt更远。简单地平均这些更新可能导致不稳定或收敛缓慢,因为聚合更新可能被进行了大量(可能导致偏离)本地优化的客户端所主导。
- 过时更新(隐式): 在服务器等待达到法定数量的同步设置中,速度更快的客户端提前完成。在异步设置中,更新在不同时间到达,反映了不同的工作量。FedAvg本身不会补偿更新的“过时”或计算努力的差异。
- 梯度近似效率低: 聚合的目标通常是近似真实的全局梯度∇F(w)=∑pk∇Fk(w)。如果客户端执行不同数量的本地步骤(τk),FedAvg中使用的本地更新的简单加权平均Δkt=wkt+1−wt可能不是最有效的近似,特别是当涉及到本地学习率ηl时(因为本地更新Δkt≈−ηlτk∇Fk(wt))。
FedNova方法:规范化本地更新
联邦规范化平均(FedNova)通过在聚合前对客户端更新进行规范化,直接处理系统异构性。核心思想是调整每个客户端的贡献,以抵消不同本地计算量的影响,旨在获得一个能更好地反映客户端平均梯度方向的更新,而与每个客户端在本地执行了多少步无关。
FedNova不是平均最终本地模型或原始更新Δkt,而是平均按已执行的本地工作量规范化后的更新。令τk为客户端k在轮次t中执行的本地步骤数(例如,SGD更新次数)。客户端k提交的本地更新是Δkt=wkt+1−wt。
FedNova按如下方式计算全局模型更新:
wt+1=wt+k∈St∑pk(τkΔkt)
这里,St是参与轮次t的客户端集合,pk是客户端k的聚合权重 (weight)(通常pk=nk/∑j∈Stnj,但也可以采用其他加权方式)。
将此与通过本地更新来理解的FedAvg中隐式更新方向进行比较:
wFedAvgt+1=wt+k∈St∑pkΔkt
实际上,FedNova旨在平均平均本地步骤更新(Δkt/τk),并按pk加权。这避免了执行许多本地步骤(τk≫τj)的客户端仅仅因为计算量大而过度影响聚合更新的幅度和方向。它假设当τk不同时,Δkt/τk提供了比原始更新Δkt更好的、与全局目标相关的本地梯度方向估计。这对于常见的本地求解器(如SGD)通常表现良好。
可视化规范化效果
考虑两个拥有相同数据量(p1=p2=0.5)但计算能力不同的客户端。客户端1执行τ1=2本地步骤,而客户端2执行τ2=10本地步骤。它们的原始更新是Δ1t和Δ2t。
FedAvg直接平均了可能差异很大的更新Δ1t和Δ2t。如果客户端2的更新Δ2t由于τ2=10而大得多,它可能占据主导地位。FedNova在平均之前,首先根据步数(τk)进行规范化,可能导致一个不同的聚合方向,该方向能更好地反映平均单步进展。
优点与收敛性
FedNova的主要优点是其对系统异构性的鲁棒性。通过基于本地工作量规范化更新:
- 提升收敛速度: 理论分析表明,在系统异构性显著的情况下,FedNova可以比FedAvg获得更快的收敛速度,因为它校正了由不同τk引起的各种贡献。
- 公平性: 它避免了计算能力强的客户端或滞后者(如果允许,他们可能会运行更长时间)仅仅因为本地计算量大而对全局模型更新产生不当影响。
- 稳定性: 当τk值在客户端或轮次之间大幅波动时,规范化可以使训练过程比FedAvg更稳定。
实际考量
实施FedNova需要对标准联邦学习协议进行少量修改:
- 报告本地工作量: 客户端需要与模型更新(Δkt)一起报告执行的本地工作量(τk)。这通常是一个标量值(例如,执行的本地梯度步数),增加的通信开销很小。
- 服务器端计算: 服务器在执行加权聚合步骤之前执行规范化(Δkt/τk)。
值得注意的是,FedNova主要处理系统异构性。它不直接解决统计异构性(非独立同分布数据)带来的问题,尽管它可以与为该目的设计的算法(如FedProx或SCAFFOLD)结合使用。FedNova的有效性依赖于以下假设:规范化更新Δkt/τk是一个有意义的量,表示平均步进方向。这对于常见的本地求解器(如SGD)通常表现良好。
总之,FedNova提供了一种理论上合理且实践中有效的方法,用于缓解联邦网络中客户端计算资源和本地步数差异带来的不利影响。通过在聚合前规范化更新,它促进了更公平的贡献,并在异构系统环境中,与FedAvg相比,可以实现更快、更稳定的收敛。当客户端能力差异很大时,它是构建更高性能联邦学习系统的宝贵工具。