这篇文章将从Transfer Learning → Domain Adaptation → Unsupervised Domain Adaptation →Source-Free Domain Adaptation 的顺序进行讲解
迁移学习的目标是:将一个领域中学到的知识迁移到另一个不同但相关的领域中。
给定:
比如你学会了开小轿车(源任务),再去开货车(目标任务),虽然场景变了,但有些经验能迁移,比如方向盘怎么打,刹车怎么踩。
比如你在白天街道拍的照片上训练了行人识别系统,但到了夜晚光线、背景都变了,模型识别能力下降,就需要“适应”夜间环境。
在领域自适应中,当目标域数据完全无标签时,就成了无监督领域自适应(UDA)。
给定:
目标是训练出模型在 D T D_T DT 上有良好性能
就像你有标注好的英文数据(源),想训练一个模型处理中文(目标)邮件,但手头没中文邮件的标签,只能靠“猜”。
在 UDA 中,我们还能访问源数据,但很多现实情况下:
这就进入了更现实也更艰难的场景:
SFDA 是一种更严格的领域自适应设定,目标是在完全无法访问源数据的前提下,仅依赖一个源模型和无标签的目标数据,训练出在目标域表现良好的模型。
有的只有:
没有的:
你是一家医院的AI研究员,训练好了一个心脏病诊断模型。另一家医院买了你的模型,但你不能给他们训练数据。他们只能拿模型 + 自己新采集的病人图像去做适应,这时他们面临的任务就是 SFDA。
问题 | 通俗解释 |
---|---|
无源数据 | 没法回去翻“老课本”查自己怎么学的 |
无标签 | 没人告诉你“现在这个是什么” |
模型边界不对 | 原来“猫和狗”的分界线,在新图像上失效了 |
伪标签会误导 | 自己猜出来的答案,可能一错错到底 |
方法类型 | 核心想法 | 代表方法 |
---|---|---|
自训练(Self-training) | 用模型自己猜的标签再训练 | SHOT(信息最大化 + 聚类) |
对比学习(Contrastive) | 图像对之间保持一致性 | AdaContrast, SF(DA)² |
邻域结构(Neighborhood) | 相似样本指导伪标签 | NRC |
不确定性控制(Uncertainty) | 有些不确定就不要强猜 | UCon-SFDA(分布鲁棒优化) |