12.1-12.7学习周报

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 摘要
  • Abstract
  • 一、 k-近邻法
  • 二、持续学习
  • 总结


摘要

本周主要学习了k邻近算法的原理和应用场景,了解了持续学习的有关概念和原理。

Abstract

This week, we mainly learned the principles and application scenarios of k-proximity algorithm, and learned about the relevant concepts and principles of continuous learning.

一、 k-近邻法

分类任务中的 k-近邻法
k-近邻法概述

k k k-近邻法”(k-Nearest Neighborhood, kNN) 是一种常用的监督学习方法。

k k k-近邻法主要思想:给定测试样本,训练集中基于某种距离度量找出与该测试样本最邻近的 k k k个实例,根据这 k k k个邻居的信息来进行预测。分类任务中可以使用“投票法”;回归任务中可使用“平均法”。

本节讨论分类任务中的 k k k-近邻法,使用投票法,即某新输入样本最邻近 k k k个训练实例多数属于某个类,则该新输入样本就属于哪个类。

k k k-近邻法的特殊情况时 k = 1 k=1 k=1时,此时称为“最邻近算法”。最邻近法将实例 x i x_i xi的类 y i y_i yi作为其单元中所有点的类标记(class lable)。
12.1-12.7学习周报_第1张图片
算法描述:

  1. 输入训练数据集: T = { ( x 1 , y 1 , ( x 2 , y 2 ) , . . . , ( x m , y m ) ) } T=\{(x_1,y_1,(x_2,y_2),...,(x_m,y_m))\} T={(x1,y1,(x2,y2),...,(xm,ym))},其中 x i ∈ χ ⊆ R n x_i \in\mathcal{{\chi}}\subseteq \mathbb{R}^n xiχRn为实例的特征向量, y i ∈ Y = { c 1 , c 2 , ⋯   , c K } y_{i} \in \mathcal{Y}=\left\{c_{1}, c_{2}, \cdots, c_{K}\right\} yiY={c1,c2,,cK}为实例所属类别, i = 1 , 2 , . . . , m i=1,2,...,m i=1,2,...,m
  2. 输入新实例 x x x,根据给定的距离度量,在训练集 T T T中找出与 x x x最邻近的 k k k个点,涵盖这 k k k个点 x x x的邻域记作 N k ( x ) N_k(x) Nk(x)
  3. N k ( x ) N_k(x) Nk(x)中根据分类决策规则(如投票法)决定 x x x所属类别,即

y = arg ⁡ max ⁡ c j ∑ x i ∈ N k ( x ) I ( y i = c j ) , i = 1 , 2 , ⋯   , m ; j = 1 , 2 , ⋯   , K y=\arg \max _{c_{j}} \sum_{x_{i} \in N_{k}(x)} I\left(y_{i}=c_{j}\right), \quad i=1,2, \cdots, m ; j=1,2, \cdots, K y=argmaxcjxiNk(x)I(yi=cj),i=1,2,,m;j=1,2,,K

I I I为指示函数,即当 y i = c j y_i=c_j yi=cj I = 1 I=1 I=1否则为0

k 近邻模型
k k k-近邻法中,当训练集、距离度量(如欧氏距离)、 k k k值及分类决策规则(如投票法)确定后,对于任何一个新的输入实例,它所属的类唯一地确定。 k k k-近邻法没有显式的训练过程。

k k k-近邻模型的特征空间一般是 R n \mathbb{R}^n Rn。一般使用的距离是欧氏距离,也可以是其他距离,如 L p \mathrm{L}^p Lp距离。

k k k-近邻法的模型对应特征空间的一个划分
12.1-12.7学习周报_第2张图片

二、持续学习

持续学习也被称为增量学习或终身学习,但没有严格的区分。它在保留原始学习经验的同时,在很长一段时间内逐渐获取、微调和转移知识。持续学习广泛应用于各个领域,例如持续监督学习、持续无监督学习持续强化学习[3]。持续学习旨在依次地从不同的任务中学习知识,在学习新知识的同时能够保留已有的知识,减缓或克服灾难性遗忘问题。在持续学习的场景下,任务数据并非是静态不变的,而是以信息流的形式依次出现。与传统的基于静态数据分布的机器学习模型不同,持续学习的特点是从动态数据分布中学习。一个主要的挑战被称为灾难性遗忘,对新分布的适应通常会导致捕获旧分布的能力大大降低。这种困境是学习可塑性和记忆稳定性权衡的一个方面:前者过多会干扰后者,反之亦然。
目前,持续学习方法可以分为如下几类:正则化、数据排演、生成回放、动态网络等。正则化通过引入损失函数和正则项来解决模型过拟合的问题。保证模型在旧任务上 的精度;结合数据排演的方法通过保存旧任务的 样本,使得模型学习新任务时周期性地将这些样 本添加到训练数据中;与数据排演不同的是,基 于生成回放的方法不直接保存旧任务的样本,而 是通过其他手段生成旧任务的样本[2]。采用动态网络的方法将模型中针对不同任务的参数分隔开, 在学习新任务时固定旧任务的参数。
除了上述方法,进行持续学习时还需要定义记忆增强方法。很多大模型只能通过数据集训练以后来进行推理,根本没有所谓的记忆。记忆增强方法是持续学习中非常重要的一种方法,记忆增强方法通常会维护一个“记忆库”或“回放缓冲区”,用于保存之前任务的数据样本或模型参数。当模型学习新任务时,回放旧任务的数据样本,以帮助避免灾难性遗忘。
记忆增强方法主要通过两个方法实现:经验重放、基于记忆的神经网络。
(1) 经验重放:通过存储过去的经验并在训练新任务时回放,模型可以同时保持对旧任务的记忆。这种方法最早应用于强化学习中,也可以迁移到持续学习场景。
(2) 基于记忆的神经网络: 通过引入外部记忆模块,使得神经网络可以“记住”历史经验,并通过查询这些记忆来应对新的任务。

总结

下周将对持续学习的应用进行更深入的了解。

你可能感兴趣的:(学习)