【深度学习】P1 Deep Learning 简介

目录

  • 什么是深度学习
  • 深度学习网络结构
  • 深度学习重要历史节点
  • 常见深度学习库

什么是深度学习

深度学习,deep learning,是机器学习的分支,是一种以人工神经网络为架构,对资料进行表征学习的算法。而深度学习中“深度”一词,指的是使用多层神经网络。

所以简单来说,深度学习,是在多层神经网络中进行表征学习的算法。

深度学习运用封层抽样的思想,更高层次的概念从低层次的概念中学习得到。这一分层结构常常使用贪心算法逐层构建而成,并从中选取有助于机器学习的更有效的特征。


深度学习网络结构

卷积神经网络、循环神经网络是深度学习中两种非常重要的网络结构,他们分别擅长处理不同类型的数据:

  • 卷积神经网络(CNN):CNN 在图像处理领域大放异彩,能够有效的识别和分类图像中物体。CNN 的关键特点是卷积层,因为其能够识别图像中的局部特征,如边缘、纹理和形状。此外,CNN 还具有池化层,用于减少数据的空间尺寸,同时还能保留重要的局部信息。
  • 循环神经网络(RNN):RNN 适合处理序列数据,如时间序列分析、语音识别和自然语言处理。RNN 的重要思想是能记忆之前的信息,并将这些信息用于当前的计算。著名的长短时记忆网络(LSTM)是 RNN 的一种变体,能够更好地处理长序列数据,防止梯度消失和梯度爆炸地问题。

除了上述 CNN 与 RNN 外,深度学习框架还通常包含诸如 FNN、GAN 等其他类型的网络结构,如:

  • 全连接神经网络(FNN):也称 MLP 多层感知器,其特点是每个层中的神经网络都与上一层的所有神经元相连。FNN 适合处理结构化数据。
  • 生成对抗网络(GAN):GAN 由生成器和判别器组成,通过对抗训练过程相互学习。生成器生成数据,判别器判断数据的真伪。GAN 在图像生成、数据增强和其他生成任务中表现出色。

还有其他神经网络,不胜枚举。


深度学习重要历史节点

  • 1943年,神经网络概念的提出:论文《逻辑计算机器的数学理论》提出了神经网络的基本概念。
  • 1958年,感知机的发明:感知机,一种最简单的神经网络,能够进行线性分类。
  • 1986年,反向传播算法的提出:反向传播算法,一种有效的多层神经网络的训练方法。
  • 2006年,深度学习的复兴:深度置信网络的诞生,标志着深度学习的研究复兴。
  • 2012年,ImageNet图像大赛的突破:卷积神经网络在 ImageNet 图像识别大赛中取得了突破性的成就;
  • 2014年,AlphaGo诞生:Google DeepMind开发的AlphaGo程序采用深度学习技术,首次战胜职业围棋对手;
  • 2015年-2016年,语音识别的突破:深度学习技术使得语音识别的准确率大幅升高,各大公司纷纷推出基于深度学习的语音识别服务;
  • 2017年,Transformer模型的提出:Transformer模型彻底改变自然语言处理的面貌,为后来BERT、GPT等模型奠定了基础。

常见深度学习库

  • PyTroch
  • TensorFlow
  • Theano
  • Paddle
  • Caffe
  • Keras
  • MXNet

发布:2024/2/2
版本:第一版
如有任何疑问,请联系我,谢谢!

你可能感兴趣的:(#,深度学习,深度学习,人工智能)