大模型·知识蒸馏·学习笔记

第一部分:核心概念入门

1.1 什么是知识蒸馏?

  • 核心问题: 深度学习模型(如大型神经网络)虽然性能强大,但其巨大的参数量和计算需求使其难以部署到手机、嵌入式设备等资源受限的平台。

  • 核心思想: 知识蒸馏是一种模型压缩和优化的技术,其灵感来源于“教师-学生”范式 。我们先训练一个复杂但性能强大的“教师模型”,然后利用这个教师模型来指导一个轻量级的“学生模型”进行学习 。

  • 生动的比喻 (Hinton, 2015): 这个过程好比昆虫的生命周期。幼虫形态(教师模型)不计成本地从环境中汲取营养和能量(从海量数据中学习知识);而成虫形态(学生模型)则被优化得轻巧高效,以适应飞行和繁殖(在实际设备上部署和推理)。

1.2 为什么需要关注泛化,以及什么是“过拟合”?

  • 核心目标:我们训练模型的最终目标不是让它在见过的训练数据上表现好,而是让它在未知的测试数据上表现好,这种能力称为泛化能力

  • 过拟合 (Overfitting):指模型在训练时学得“太过了”,不仅学到了数据的普遍规律,还把训练数据特有的噪声和无关细节都“死记硬背”了下来。

    • 表现:在训练集上准确率极高,但在新的测试集上准确率很低。

    • 原因:通常是由于模型过于复杂、训练数据量不足或训练时间过长。

    • 与知识蒸馏的关系:知识蒸馏是一种非常有效的防止过拟合的手段,因为它不是让学生模型去死记硬背正确答案,而是学习教师模型的“思考模式”,从而获得更好的泛化能力。


第二部分:知识蒸馏的技术核心

2.1 基础:标准Softmax函数

  • 作用:在多类别分类任务中,它负责将神经网络输出的原始分数(logits)转换成一个标准的概率分布。

  • 计算公式 (T=1):

P i = e z i ∑ j = 1 K e z j ​​ P_i = \frac{e^{z_i}}{\sum_{j=1}^{K} e^{z_j}}​​ Pi=j=1Kezjezi​​

  • 特点:倾向于产生“赢家通吃”的尖锐分布,即得分最高的类别概率会非常接近1,而其他类别概率接近0。

2.2 关键机制:软目标 (Soft Targets) 与 温度 (T)

  • 软目标:由教师模型产生的、经过“软化”的概率分布,用作学生模型的学习目标 。

  • 温度 T:一个用于平滑概率分布的超参数。

    • 计算公式 (T>1):

q i = exp ⁡ ( z i / T ) ∑ j exp ⁡ ( z j / T ) ​ q_i = \frac{\exp(z_i / T)}{\sum_j \exp(z_j / T)}​ qi=jexp(zj/T)exp(zi/T)

  • 作用:当 T>1 时,它会缩小 logits 之间的差距,使得最终的概率分布更平滑(熵更高)。T 越高,分布越平滑。这能将教师模型过于自信的尖锐输出“软化”,暴露更多信息。

2.3 核心价值:为什么要学习“暗知识” (Dark Knowledge)?

直接学习正确答案(硬目标)看似更直接,但学习暗知识能让学生模型学到更深层次的智慧。

  • 什么是暗知识:指由软目标所揭示的、关于错误类别之间的相对概率关系 。例如,教师模型认为一张“宝马”图片被错认为“垃圾车”的概率,远大于被错认为“胡萝卜”的概率 。这种类别间的相似性结构就是暗知识。

  • 学习暗知识的四大好处

    1. 学习如何泛化:学生模型通过模仿暗知识,学会了教师模型的“思考方式”和泛化模式,而不仅仅是答案。

    2. 更丰富的信息量:相比只提供“正确/错误”信息的硬目标,软目标为每个训练样本都提供了更丰富的监督信号 。

    3. 更高效的训练:软目标能提供更稳定的梯度,允许使用更高的学习率和更少的数据进行训练 。Hinton 的实验表明,仅用3%的数据和软目标,就能达到接近100%数据和硬目标的训练效果 。

    4. 强大的正则化效果:学习暗知识本身就是一种有效的正则化,能指导学生模型的学习方向,有效防止其过拟合。


第三部分:知识蒸馏的框架与分类 (源于综述论文)

3.1 知识的三种形态

教师可以传递的知识不止一种,综述论文 `` 将其归为三类:

  • 基于响应的知识 (Response-Based):主要指教师模型最后一层的输出,如软目标 14。

  • 基于特征的知识 (Feature-Based):指教师模型中间层的特征图或激活值,为学生提供中间过程的指导。

  • 基于关系的知识 (Relation-Based):关注不同特征图之间或不同数据样本之间的关系,是一种更高层次的知识抽象 。

3.2 三种蒸馏方案

  • 离线蒸馏 (Offline):先完整训练一个强大的教师,再用它来指导学生。这是最经典的两阶段方法。

  • 在线蒸馏 (Online):教师和学生同步进行训练,互相学习,没有一个固定的、预训练的教师。

  • 自蒸馏 (Self-Distillation):模型向自己学习,例如网络的深层指导浅层,或用早期的模型快照指导后期的训练 。


第四部分:关键论文精读

4.1 开山之作:Hinton et al. (2015) - 《Distilling the Knowledge in a Neural Network》 ``

  • 核心贡献

    • 首次系统性地提出并命名了“知识蒸馏”。

    • 引入了“软目标”、“温度T”和“暗知识”等核心概念与思想。

    • 通过经典的MNIST“缺失数字3”实验,证明了模型可以通过学习其他数字的软目标来泛化识别出从未见过的类别。

    • 语音识别任务上验证了蒸馏的商业应用价值,成功将一个大型集成模型的性能浓缩到单一模型中 。

    • 提出了专家模型集成(Generalist + Specialists)的思路来处理超大规模数据集(如JFT)。

4.2 全面综述:Gou et al. (2021) - 《Knowledge Distillation: A Survey》 ``

  • 核心贡献

    • 为知识蒸馏领域提供了一张全面的“地图”。

    • 系统地将该领域的研究工作划分为知识类型、蒸馏方案、教师-学生架构、蒸馏算法等多个维度。

    • 回顾了知识蒸馏在视觉识别、自然语言处理、语音识别等领域的广泛应用。

    • 总结了该领域面临的挑战(如知识质量、架构设计、理论缺失)和未来方向

强烈推荐读一下下面引用中的两个个论文, 里面有详细的蒸馏技术介绍.

引用

  • Knowledge Distillation: A Survey
  • Distilling the Knowledge in a Neural Network

你可能感兴趣的:(笔记,人工智能,神经网络,机器学习,自然语言处理,深度学习,语言模型)