CLIP 对比预训练 + 文字图像相似度:离奇调查,如何训练视觉大模型?

CLIP:如何训练视觉大模型?

    • 对比预训练
    • 图像编码器
    • 文本编码器
    • 最大的亮点:zero-shot图像分类
    • 总结

 


CLIP论文地址:https://arxiv.org/pdf/2103.00020.pdf

CLIP = 对比学习 + 预训练 + 文字图像相似度。

对比预训练

传统方法训练视觉模型的方式通常是使用有监督学习方法,需要收集大量图像和对应标签:

CLIP 对比预训练 + 文字图像相似度:离奇调查,如何训练视觉大模型?_第1张图片

CLIP 采用了一种不需要人工大量标记数据的自监督学习方法。

CLIP 模型是一种基于对比学习的模型,可以将图像和文本进行联合编码,从而实现图像和文本之间的交叉检索。

  • 传统方法:要构建一个图像-文本匹配数据集,需要收集大量的图像和与之相关联的文本描述,并对它们进行人工标注。比如,我们收集了10000张图像和与之对应的10000个文本描述,然后需要手动将每张图像与对应的文本进行匹配标注。

  • CLIP方法:相比之下,CLIP可以利用自监督学习和互联网上的数据进行训练,无需显式的人工标注。例如,我们可以利用互联网上的图像和相关联的文本数据,比如从社交媒体、图像搜索引擎或图像描述数据集中获取图像-文本对,不用人工标注。

  • openai 使用了 WebImage Text 上 4亿 对图像文本对训练 CLIP
    CLIP 对比预训练 + 文字图像相似度:离奇调查,如何训练视觉大模型?_第2张图片

CLIP会将图像和文本分别编码为特征向量,并通过比较这些特征向量的相似性来学习图像和文本之间的匹配关系。

比如图像和文本的匹配任务中,模型需要区分正样本(真实的图像-文本匹配对)和负样本(随机的图像-文本对)。

模型会通过最大化正样本的相似性,同时最小化负样本的相似性来学习。

CLIP 对比预训练 + 文字图像相似度:离奇调查,如何训练视觉大模型?_第3张图片

对比预训练:

  • 一个文本编码器,得到 n 个文本特征向量( T 1 . . . T n T_{1}...T_{n} T1...Tn
  • 一个图像编码器,得到 n 个图像特征向量( l 1 . . . l n l_{1}...l_{n} l1...ln
  • 将文本、图像映射到同一个特征空间
  • 计算这对组合的相似度
  • 最大化正样本相似度(对角线 l 1 T 1 、 l 2 T 2 、 l 3 T 3 、 . . . 、 l n T n l_{1}T_{1}、l_{2}T_{2}、l_{3}T_{3}、...、l_{n}T_{n} l1T1l2T2l3T3...lnTn 是正样本)
  • 最小化负样本相似度(其他是负样本)

完整版(参考知乎大佬):
CLIP 对比预训练 + 文字图像相似度:离奇调查,如何训练视觉大模型?_第4张图片
动态过程:

图像编码器

使用 ResNet 作为初始的图像特征提取器,然后将 ResNet 的输出,传递给 ViT 模型。

利用 ResNet 在低层级特征提取方面的优势,同时使用 ViT 模型的自注意力机制来捕捉图像中的全局关系。

图像编码器 = ResNet + ViT。

ResNet 部分:

  • 引入模糊池化,在下采样前加入一个高斯低通滤波。以减少特征图中的高频细节信息,从而实现更加鲁棒的下采样。
  • 将全局平均池化,替换成注意力池化。对特征图的每个通道进行加权平均,从而将更多的注意力放在重要的特征上。
  • 5 个模型的放缩:ResNet - 50、ResNet - 100、ResNet - 50x4、ResNet - 50x16、ResNet - 50x64

CLIP 对比预训练 + 文字图像相似度:离奇调查,如何训练视觉大模型?_第5张图片

ViT 部分:

  • 在 patch embedding 和 position embedding 后,添加一个额外的线性/全连接层,以增加模型的非线性表达能力。
  • 更换了初始化方法,提升模型性能。
  • 4 个模型的缩放:ViT-B/32、ViT-B/16、ViT-B/14、ViT-B/14-336px

CLIP 对比预训练 + 文字图像相似度:离奇调查,如何训练视觉大模型?_第6张图片

文本编码器

没啥特殊的,就是 Transformer :

  • 6 个编码器
  • 6 个解码器
  • 使用了 63M 个参数
  • 有 8 个注意力头

最大的亮点:zero-shot图像分类

CLIP 对比预训练 + 文字图像相似度:离奇调查,如何训练视觉大模型?_第7张图片

传统大模型预训练后,还需要微调,才能处理下游任务。

CLIP 出来后,不需要任何训练数据,就可以直接做图像分类。

分类过程:

  • 将所有类别(汽车、狗、鸟等),转换为一个句子 A photo of a {object}
  • 输入到文本编码器,得到 N 个特征向量
  • 输入图像到图像编码器,得到 1 个特征向量
  • 俩个特征向量相似度最高的,就是图像的类别

 


总结

CLIP的训练和功能:

  1. 子问题:如何让模型学会理解和连接图像与文本?

    • 子解法:对比学习
    • 之所以使用对比学习,是因为它能够通过比较正样本(匹配的图像-文本对)和负样本(不匹配的图像-文本对)来学习图像和文本之间的关联,无需显式的人工标注。
  2. 子问题:如何在没有大量人工标记数据的情况下训练视觉模型?

    • 子解法:预训练 + 自监督学习
    • 之所以采用这种方法,是因为通过利用互联网上已存在的大量图像-文本对,可以让模型在没有显式人工标注的情况下进行学习,这大大减少了对标注数据的依赖。
  3. 子问题:如何提高图像编码器的特征提取能力?

    • 子解法:ResNet + ViT结合使用
    • 使用ResNet是因为其在低层次特征提取方面的优势,而ViT(Vision Transformer)则因其自注意力机制能够捕捉图像中的全局关系。
    • 这种结合充分利用了两种模型的优势,提高了特征提取的效能和准确性。
  4. 子问题:如何编码文本信息以与图像特征相匹配?

    • 子解法:Transformer模型
    • 之所以选择Transformer作为文本编码器,是因为它的强大能力来自于注意力机制,能够有效地处理序列数据,并且与图像编码器产生的特征向量兼容,便于进行图像和文本之间的相似度计算。
  5. 子问题:如何实现无需微调即可进行图像分类的Zero-shot学习?

    • 子解法:动态构建文本特征向量
    • 核心在于将分类任务中的类别名称转换为预设格式的文本描述(如“A photo of a {object}”),然后通过文本编码器生成特征向量。
    • 通过比较这些向量与图像编码器输出的图像特征向量的相似度,可以直接进行分类。
    • 之所以采用这种方法,是因为它允许模型灵活应对各种分类任务而无需针对特定任务进行训练。

CLIP模型通过结合对比学习、自监督学习、以及Transformer等技术,实现了一种高效且灵活的图像与文本理解方式,特别是在处理零样本学习任务方面的巨大潜力。

你可能感兴趣的:(医学大模型:健康长寿,#,深度学习,深度学习)