趋近智
标准联邦学习通常基于一些简化假定运行,比如客户端数据同分布和计算资源相似。实际部署中这些假定往往不符合。客户端数据集通常表现出统计异质性(即非独立同分布数据),这表示客户端k的本地数据分布可能与全局分布差异很大。同时,客户端硬件、网络速度和可用性的差异也造成了系统异质性。这两种问题都可能阻碍收敛、降低模型准确性,并导致公平性问题。
本章介绍用于应对这些常见难题的技术。我们将研究旨在减轻非独立同分布数据和系统变动性负面影响的方法。认识到异质性意味着单一全局模型可能无法最好地服务所有客户端,我们也将学习联邦学习中的个性化方法。你会了解到包括以下方面的策略:
4.1 异构性的来源:统计性与系统性
4.2 处理非独立同分布数据的技术
4.3 聚类联邦学习方法
4.4 联邦个性化中的元学习
4.5 联邦设置中的多任务学习
4.6 模型剪枝与设备限制适应
4.7 实践:模拟非独立同分布数据及缓解方法
© 2026 ApX Machine Learning用心打造