趋近智
从零开始训练大型计算机视觉模型需要大量数据和计算资源。迁移学习 (transfer learning)提供了一种实用方法,通过重复使用预训练 (pre-training)模型的知识。尽管基本的迁移学习技术(如基本微调 (fine-tuning))很有效,但在许多实际使用场景中,当模型需要适应与原始训练数据显著不同的新任务或数据集时,需要更精巧的方法。
本章考察模型适应的高级策略。我们将考察在微调和特征提取之间进行选择的优化方法,包括层冻结模式。您将学习域适应技术,处理目标数据分布()与源数据分布()不同的情况,以及相关的域泛化方法,以提升在完全未见域上的性能。此外,我们涵盖了少样本学习 (few-shot learning)方法,用于使用极少量标注样本构建有效模型,并介绍自监督预训练方法,这些方法学习有用的视觉表示,而无需依赖手动标注。目的是为您提供方法,以便有效应用和调整预训练模型,以适应专门任务和不同数据环境。
6.1 回顾迁移学习策略
6.2 微调与特征提取:高级考量
6.3 使模型适应不同数据分布
6.4 域泛化概述
6.5 基于CNN的小样本学习
6.6 视觉自监督学习预训练
6.7 动手实践:在特定数据集上微调模型