论文标题
A survey on Semi-, Self- and Unsupervised Techniques in Image Classification
输入只有样本没有标签,损失函数需要的一切参数都由输入样本生成
输入的样本有一部分是有标签的,另一部分没有标签,通常损失函数=有监督损失函数+无监督损失函数
首先对无标签数据进行pretext task,在进行微调的时候需要用到有标签数据
周志华教授综述
弱监督的概念包括三种:有部分标签(半监督)、有粗糙的标签、有错误的标签
拐个弯,比如后面介绍到的通过对旋转角度、相对位置等的学习来实现对图片内容理解的学习
在半监督中,这个技术作为一种额外添加的损失函数与有监督的损失函数并行训练
在自监督和无监督中可以只使用这种技术作为损失函数训练
文献:Virtual adversarial training: a regularization method for supervised and semi-supervised learning
x是某一个数据,f(x)是网络输出,D是距离的度量,P是概率分布,radv是使D最大时的r
文献:Elements of information theory
通过令P(f(x))=P(f(y))来平衡使熵最大化和使条件熵最小化的影响
文献:Semi-supervised learning by entropy minimization
They minimized the entropy H(P f(x) ) for all probability distributions P f(x) based on a certain neuraloutputf(x) for an image x
**文献:Deep clustering for unsupervised learning of visual features. **
相对于有监督方法中的k个classes,在无监督方法中则使用k个clusters
文献:Pseudo-label: The simple and efficient semi-supervised learning method for deep neural networks.
把预测的结果当作伪标签再进行训练
文献: There are many consistent explanations of unlabeled data: Why you should average
不修改损失函数而是优化算法,即平均或者循环学习率
文献: Mean teachers are better role models: Weight-averaged consistency targets improve semi-supervised deep learning results
根据每个更新步骤中学生模型的平均权重来使用教师模型。
文献:Mixmatch: A holistic approach to semi-supervised learning
文献:Temporal ensembling for semi-supervised learning
文献:Pseudo-label: The simple and efficient semi-supervised learning method for deep neural networks.
文献:S4l: Self-supervised semi-supervised learning.
损失函数=CE+基于旋转和范例预测的自监督方法的损失函数
文献:Unsupervised data augmentation for consistency training
使用AutoAugment,Cutout(随机挑选图片mask),伪标签用于过滤无监督数据的异常值等技术
文献:Virtual adversarial training: a regularization method for supervised and semi-supervised learning
文献:Learning representations by maximizing mutual information across views
文献:Representation learning with contrastive predictive coding
损失函数为InfoNCE,从负面的结果中随机采样中确认正确的预测来定义预测的质量
文献:Deep clustering for unsupervised learning of visual features
利用k聚类算法生成标签
文献: Learning deep representations by mutual information estimation and maximization
对局部图像区域进行MI最大化(AMDIM是DIM的扩展)
文献: Invariant information clustering for unsupervised image classification and segmentation
考虑增强前后的图像信息保持不变性,对图像增强视图之间的MI进行最大化,使用类分布而不是输出分布。
文献:Unsupervised visual representation learning by context prediction
把图片分割成具有相对位置的分块,通过学习分块之间的相对位置实现对图像内容理解的学习
文献:Discriminative unsupervised feature learning with exemplar convolutional neural networks
通过学习各种增强图像和原图像之间的对应关系实现图像分类
文献:Unsupervised learning of visual representations by solving jigsaw puzzles
文献:Unsupervised representation learning by predicting image rotations
随机对图片进行多个角度的旋转,然后让网络学习识别出旋转角度从而实现理解图片信息,最后用有标签数据进行微调
文献: Deep adaptive image clustering
首先计算各个聚类的余弦相似性,再利用这个余弦相似性对输入图片进行两两分类
IIC可以不通过有标签数据进行微调,因此也算作无监督方法
文献:Learning discrete representations via information maximizing self-augmented training
最好的增强可由VAT生成,加入一个由原图像和增强图像构成的CE损失函数,使输入输出的MI最大化
CIFAR-10、CIFAR-100、STL-10、ILSVRC-2012(ImageNet的子集)
说明
例如MixMatch和S4L的效果最好,都是综合了多种技术