YOLOv5的Conv是什么,Conv就是卷积吗(1)

不论是看YOLOv5还是最新的YOLOv12的网络结构,里面都有一个看起来雷打不动的部分,Conv

Convolution

Convolution是卷积的意思,我们看一张图来简单理解一下神经网络里面的卷积的过程是什么样的。

YOLOv5的Conv是什么,Conv就是卷积吗(1)_第1张图片

卷积一定是一个输入矩阵(特征)和一个卷积核矩阵做图中这样的计算。我们可以想象输入的就是一张单通道的黑白图像,特征矩阵的每一个数字代表了颜色的深浅(简单理解)。卷积核就相当于一个特征提取器,通过跟特征矩阵不断相乘输出一个新的特征矩阵。你可以理解输出了一副新的图像

因此,一个完整的简单卷积过程需要包括三个部分。输入特征矩阵、卷积核(filter)以及输出特征矩阵

Conv

Conv这个名字来自Convolution,是卷积层的意思。它不是卷积,比卷积复杂,卷积只是其一部分。但是它们都有一个共同目的,就是提取特征

Conv卷积层通常是由卷积、批标准化和激活函数这三个模块组成的。

批标准化(Batch Normalization)是一种常用的技术,可以帮助网络更好地学习和收敛。它通过对每个小批量数据进行归一化,来使得网络中的每一层输入分布更加稳定。批标准化可以减少梯度消失和梯度爆炸的问题,从而使得网络更易于训练。此外,批标准化还可以增加网络的鲁棒性,使其对输入数据的变化更加稳定。

激活函数(Activation)是卷积神经网络中非常重要的组件之一,对输入数据进行非线性变换,从而增强网络的表达能力。在卷积神经网络中,常用的激活函数包括ReLU、LeakyReLU、Sigmoid、Tanh等。这些激活函数都可以通过将负值置为0或者进行缩放来引入非线性变换,并且具有不同的性质和优缺点。

YOLOv5的Conv是什么,Conv就是卷积吗(1)_第2张图片

ConvBNSiLU比较完整的卷积层的表示方法,在一般情况下就简写为Conv。

YOLO系列算法的改进中,对卷积层进行改进的方法层出不穷,想要找到合适的方法实在很难。通过分析原理、研究数学过程来找合适的方法是不太可能的,通常是试出改进了再开始分析原理。虽然这样的方法可能在很多人眼里谈不上有多么科学,但是或许这种不确定性正是这些算法模型的魅力所在!

参考文章:

详解yolov5的网络结构_yolov5网络结构详解-CSDN博客

深入浅出理解深度可分离卷积(Depthwise Separable Convolution)_dwconv-CSDN博客

你可能感兴趣的:(YOLO,深度学习,人工智能)