域适应方法如何进行创新?
MIC: Masked Image Consistency for Context-Enhanced Domain Adaptation
From:CVPR2023
https://github.com/lhoyer/MIC大多数以前的UDA方法都难以处理在目标域上具有类似视觉外观的类,因为没有GT可用于学习轻微的外观差异。为了解决这个问题,本文提出了一个掩蔽图像一致性(MIC)模块,作为额外的线索以提高UDA学习的目标域的空间上下文关系索。MIC强制执行掩蔽的目标图像的预测之间的一致性,其中随机块被保留,并且伪标签基于由指数移动平均老师生成的完整图像。MIC可以集成到各种UDA方法中,跨越不同的视觉识别任务,如图像分类,语义分割和目标检测。
Refign: Align and Refine for Adaptation of Semantic Segmentation to Adverse Conditions
From:WACV2024
https://github.com/brdav/refignUDA将在正常条件下训练的模型适应到到目标不利条件域。
Creation:
- 提出Refign,一个通用并且以自训练为基础的UDA方法,进行跨域学习。
- Refign包括两个步骤:(1)使用不确定性感知密集匹配网络将正常条件图像与对应的不利条件图像对准,以及(2)使用自适应标签校正机制用正常预测来细化不利预测。本文设计自定义模块,以简化这两个步骤。
CDAC: Cross-domain Attention Consistency in Transformer for Domain Adaptive Semantic Segmentation
ICCV2023
https://github.com/wangkaihong/CDAC域自适应Transformer尚未得到很好的探索。域差距可能会导致差异的自注意。由于这个间隙,Transformer会处理虚假区域或像素,这会降低目标域的精度。本文提出了跨域注意一致性(CDAC),使用跨域注意层,源和目标域之间共享功能的注意图上执行自适应。具体来说,在跨域注意力和自注意力模块的预测之间施加一致性,以鼓励模型的注意力和输出中跨域的相似分布,即注意力水平和输出水平的对齐。我们还强制不同增强视图之间的注意力图保持一致,以进一步加强基于注意力的对齐。
Focus on Your Target: A Dual Teacher-Student Framework for Domain-Adaptive Semantic Segmentation
From:ICCV2023
https://github.com/xinyuehuo/DTS本文研究:无监督域自适应(UDA)语义分割。目前,一个流行的自训练UDA框架,它赋予模型双重能力:
- 从源域中的标记图像学习可靠的语义;
- 通过在未标记的图像上生成伪标记来适应目标域。
作者的新发现:通过减少/增加来自目标域的训练样本的比例,“学习能力”被加强/减弱,而“适应能力”则相反,这意味着这两种能力之间的冲突,特别是对于单个模型。为了缓解这个问题,本文提出了一个新的双重教师-学生(DTS)的框架,并配备了双向学习策略。通过增加目标域数据的比例,第二个师生模型学会了“专注于你的目标”,而第一个模型不受影响。它可以很容易地插入到现有的自训练方法中。
Learning Pseudo-Relations for Cross-domain Semantic Segmentation
From:ICCV2023
https://github.com/DZhaoXd/RTeaProblem:现有的分类学习方法主要集中在选择目标数据中可靠的预测作为伪标签进行分类学习,而忽略了像素之间有用的关系用于关系学习。
域自适应语义分割的目的是将在有标记的源域上训练的模型适应于无标记的目标域。自训练在这一领域显示出竞争潜力。现有的分类学习方法主要集中在选择目标数据中可靠的预测作为伪标签进行分类学习,而忽略了像素之间有用的关系用于关系学习。在本文中,作者提出了一个伪关系学习框架关系教师(Relation Teacher, RTea),它可以利用像素关系来有效地使用不可靠的像素并学习广义表示。在该框架中,作者在局部网格上建立合理的伪关系,并将其与图像空间中的低层次关系融合,这是由可靠的局部关系先验和可用的低层次关系先验驱动的。然后,作者设计了伪关系学习策略,通过寻找最优子图划分来优化类概率以满足关系一致性。该方法提高了模型在目标域上预测的确定性和一致性,进一步消除了跨域不适应。在三个数据集上的大量实验证明了该方法的有效性。
CMDA: Cross-Modality Domain Adaptation for Nighttime Semantic Segmentation
From:ICCV2023
GitHub - XiaRho/CMDA: [ICCV23] Official Implementation of CMDA: Cross-Modality Domain Adaptation for Nighttime Semantic SegmentationProblem:由于传统相机的动态范围较低,在弱光条件下,图像无法捕捉到结构细节和边界信息
大多数夜间语义分割的研究是基于领域自适应和图像输入的。然而,由于传统相机的动态范围较低,在弱光条件下,图像无法捕捉到结构细节和边界信息。事件相机作为一种新型的视觉传感器,是传统相机高动态范围的补充。为此,作者提出了一种新的无监督跨模态域适应(CMDA)框架,利用多模态(图像和事件)信息对夜间图像进行语义分割,而只对日间图像进行标签。在CMDA中,作者设计了图像运动提取器(Image Motion-Extractor)来提取图像中的运动信息,Image Motion-Extractor来提取图像中的内容信息,以弥补不同模式(images⇌Events)和域(Day⇌Night)之间的差距。此外,本文引入了第一个图像-事件夜间语义分割数据集。在公共图像数据集和图像事件数据集上的大量实验证明了该方法的有效性。
To Adapt or Not to Adapt? Real-Time Adaptation for Semantic Segmentation
From:ICCV2023
https://marcbotet.github.io/hamlet-web/本文提出了HAMLET框架,这是一种基于硬件感知的模块化、成本最低的实时域适应训练方法。该方法包括了一个硬件感知的反向传播协调代理(HAMT)和一个专门的领域漂移检测器,它能主动控制模型何时以及如何进行适应(LT)。由于这些创新,我们的方法能够在一台普通的GPU上以每秒29帧以上的速度执行语义分割任务。
Diffusion-based Image Translation with Label Guidance for Domain Adaptive Semantic Segmentation
From:ICCV2023
Continuous Pseudo-Label Rectified Domain Adaptive Semantic Segmentation with Implicit Neural Representations
From:ICCV2023