深度学习入门学习笔记之——神经网络

神经网络

上一章我们学习了感知机。关于感知机,既有好消息,也有坏消息。好消息是,即便对于复杂的函数,感知机也隐含着能够表示它的可能性。上一章已经介绍过,即便是计算机进行的复杂处理,感知机(理论上)也可以将其表示出来。坏消息是,设定权重的工作,即确定合适的、能符合预期的输入与输出的权重,现在还是由人工进行的。上一章中,我们结合与门、或门的真值表人工决定了合适的权重。

神经网络的出现就是为了解决刚才的坏消息。具体地讲,神经网络的一个重要性质是它可以自动地从数据中学习到合适的权重参数。本章中,我们会先介绍神经网络的概要,然后重点关注神经网络进行识别时的处理。在下一章中,我们将了解如何从数据中学习权重参数。

1、从感知机到神经网络

神经网络和感知机有很多共同点。这里,我们主要以两者的差异为中心,来介绍神经网络的结构。

1.1、神经网络的例子

用图来表示神经网络的话,如下图所示。我们把最左边的一列称为输入层,最右边的一列称为输出层,中间的一列称为中间层中间层有时也称为隐藏层。“隐藏” 一词的意思是,隐藏层的神经元(和输入层、输出 层不同)肉眼看不见。另外,本书中把输入层到输出层依次称为第 0 层、第 1 层、第 2 层(层号之所以从 0 开始,是为了方便后面基于 Python 进行实现)。 下图中,第 0层对应输入层,第 1 层对应中间层,第 2 层对应输出层。

深度学习入门学习笔记之——神经网络_第1张图片

上图中的网络一共由 3 层神经元构成,但实质上只有 2 层神经元有权重,因此将其称为 “2层网络”。请注意,有的书也会根据构成网络的层数,把上图的网络称为 “3层网络”。本书将根据实质上拥有权重的层数(输入层、隐藏层、输出层的总数减去 1 后的数量)来表示网络的名称。

只看上图的话,神经网络的形状类似于感知机。实际上,就神经元的连接方式而言,与感知机并没有任何差异。那么,神经网络 中信号是如何传递的呢?

1.2、复习感知机

在观察神经网络中信号的传递方法之前,我们先复习一下感知机。现在来思考一下下图中的网络结构。

深度学习入门学习笔记之——神经网络_第2张图片

上图中的感知机接收 x1 和 x2 两个输入信号,输出 y。如果用数学式来表示上图中的感知机,则如式(1)所示。
y = { 0 ( b + w 1 x + w 2 x 2 ≤ 0 ) 1 ( b + w 1 x + w 2 x 2 > 0 ) y=\begin{cases} 0 \quad (b+w_1x_+w_2x_2 \leq 0) \\ 1 \quad (b+w_1x_+w_2x_2 > 0)\end{cases} y={0(b+w1x+w2x20)1(b+w1x+w2x2>0)
b 是被称为偏置的参数,用于控制神经元被激活的容易程度;而 w1 和 w2 是表示各个信号的权重的参数,用于控制各个信号的重要性

顺便提一下,在上图的网络中,偏置 b 并没有被画出来。如果要明确地表示出 b,可以像下图那样做。下图中添加了权重为 b 的输入信号 1。这 个感知机将 x1、x2、1 三个信号作为神经元的输入,将其和各自的权重相乘后,传送至下一个神经元。在下一个神经元中,计算这些加权信号的总和。如果这个总和超过 0,则输出 1,否则输出 0。另外,由于偏置的输入信号一直是 1,所以为了区别于其他神经元,我们在图中把这个神经元整个涂成灰色。

深度学习入门学习笔记之——神经网络_第3张图片

现在将式(1)改写成更加简洁的形式。为了简化式(1),我们用一个函数来表示这种分情况的动作(超过 0 则输出1,否则输出 0)。引入新函数 h(x),将式(1)改写成下面的式(2)和式(3)。
y = h ( b + w 1 x 1 + w 2 x 2 ) y=h(b+w_1x_1+w_2x_2) y=h(b+w1x1+w2x2)

h ( x ) = { 0 ( x ≤ 0 ) 1 ( x > 0 ) h(x)=\begin{cases} 0 \quad (x \leq 0) \\ 1 \quad (x > 0) \end{cases} h(x)={0(x0)1(x>0)

式(2)中,输入信号的总和会被函数 h(x) 转换,转换后的值就是输出 y。 然后,式(3)所表示的函数 h(x),在输入超过 0 时返回 1,否则返回 0。因此, 式(1)和式(2)、式(3)做的是相同的事情。

1.3、激活函数登场

刚才登场的 h(x) 函数会将输入信号的总和转换为输出信号,这种函数一般称为激活函数activation function)。如 “激活” 一词所示,激活函数的作用在于决定如何来激活输入信号的总和

现在来进一步改写式(2)。式(2)分两个阶段进行处理,先计算输入信号的加权总和,然后用激活函数转换这一总和。因此,如果将式(2)写得详细一点,则可以分成下面两个式子。
a = b + w 1 x 1 + w 2 x 2 a=b+w_1x_1+w_2x_2 a=b+w1x1+w2x2

y = h ( a ) y=h(a) y=h(a)

首先,式(4)计算加权输入信号和偏置的总和,记为 a。然后,式(5) 用 h() 函数将 a 转换为输出 y。

之前的神经元都是用一个 ○ 表示的,如果要在图中明确表示出式(4) 和式(5),则可以像下图这样做。

深度学习入门学习笔记之——神经网络_第4张图片

如上图所示,表示神经元的 ○ 中明确显示了激活函数的计算过程,即信号的加权总和为节点 a,然后节点 a 被激活函数 h() 转换成节点 y。

通常如下图的左图所示,神经元用一个 ○ 表示。本书中,在可以明确神经网络的动作的情况下,将在图中明确显示激活函数的计算过程,如下图的右图所示:

深度学习入门学习笔记之——神经网络_第5张图片

下面,我们将仔细介绍激活函数。激活函数是连接感知机和神经网络的桥梁


2、激活函数

2.1、sigmoid 函数

神经网络中经常使用的一个激活函数就是式(6)表示的 sigmoid 函数sigmoid function)。
h ( x ) = 1 1 + e x p ( − x ) h(x)=\frac{1}{1+exp(-x)} h(x)=1+exp(x)1
式(6)中的 exp(−x) 表示 e−x 的意思。e 是纳皮尔常数 2.7182 …。式(6) 表示的 sigmoid 函数看上去有些复杂,但它也仅仅是个函数而已。而函数就是给定某个输入后,会返回某个输出的转换器。比如,向 sigmoid 函数输入 1.0 或 2.0 后,就会有某个值被输出,类似 h(1.0) = 0.731 …、h(2.0) = 0.880 … 这样。

神经网络中用 sigmoid 函数作为激活函数,进行信号的转换,转换后的信号被传送给下一个神经元。实际上,感知机和接下来要介绍的神经网络的主要区别就在于这个激活函数。其他方面,比如神经元的多层连接的构造、信号的传递方法等,基本上和感知机是一样的。下面,让我们通过和阶跃函数的比较来详细学习作为激活函数的 sigmoid 函数。

2.2、阶跃函数

这里我们试着用 Python 画出阶跃函数的图(从视觉上确认函数的形状对理解函数而言很重要)。阶跃函数如式(3)所示,当输入超过 0 时,输出 1, 否则输出 0。可以像下面这样简单地实现阶跃函数。

def step_function(x):
	if x > 0:
 		return 1
 	else:
 		return 0

这个实现简单、易于理解,但是参数 x 只能接受实数(浮点数)。也就是说,允许形如 step_function(3.0) 的调用,但不允许参数取 NumPy 数组,例如 step_function(np.array([1.0, 2.0]))。为了便于后面的操作,我们把它修改为支持 NumPy 数组的实现。为此,可以考虑下述实现。

def step_function(x):
    y = x > 0
    return y.astype(np.int)

上述函数的内容只有两行。由于使用了 NumPy 中的 “技巧”,可能会有点难理解。下面我们通过 Python 解释器的例子来看一下这里用了什么技巧。 下面这个例子中准备了 NumPy 数组 x,并对这个 NumPy 数组进行了不等号运算。

>>> import numpy as np
>>> x = np.array([-1.0, 1.0, 2.0])
>>> x
array([-1.,  1.,  2.])
>>> y = x > 0
>>> y
array([False,  True,  True])

NumPy 数组进行不等号运算后,数组的各个元素都会进行不等号运算, 生成一个布尔型数组。这里,数组 x 中大于 0 的元素被转换为 True,小于等于 0 的元素被转换为 False,从而生成一个新的数组 y。

数组 y 是一个布尔型数组,但是我们想要的阶跃函数是会输出 int 型的 0 或 1 的函数。因此,需要把数组 y 的元素类型从布尔型转换为 int 型。

>>> y = y.astype(np.int)
>>> y
array([0, 1, 1])

如上所示,可以用 astype() 方法转换 NumPy 数组的类型。astype() 方法通过参数指定期望的类型,这个例子中是 np.int 型。Python 中将布尔型转换为 int 型后,True 会转换为 1,False 会转换为 0。以上就是阶跃函数的实现中所用到的 NumPy 的 “技巧”。

2.3、阶跃函数的图形

下面我们就用图来表示上面定义的阶跃函数,为此需要使用 matplotlib 库。

import numpy as np
import matplotlib.pylab as plt


def step_function(x):
    return np.array(x > 0, dtype=np.int)

X = np.arange(-5.0, 5.0, 0.1)
Y = step_function(X)
plt.plot(X, Y)
plt.ylim(-0.1, 1.1)  # 指定图中绘制的y轴的范围
plt.show()

np.arange(-5.0, 5.0, 0.1) 在 −5.0 到 5.0 的范围内,以 0.1 为单位,生成 NumPy 数组([-5.0, -4.9, …, 4.9])。step_function() 以该 NumPy 数组为参数,对数组的各个元素执行阶跃函数运算,并以数组形式返回运算结果。 对数组 x、y 进行绘图,结果如下图所示。

深度学习入门学习笔记之——神经网络_第6张图片

如上图所示,阶跃函数以 0 为界,输出从 0 切换为1(或者从1切换为 0)。它的值呈阶梯式变化,所以称为阶跃函数

2.4、sigmoid 函数的实现

下面,我们来实现 sigmoid 函数。用 Python 可以像下面这样写出式(6) 表示的 sigmoid 函数。

def sigmoid(x):
    return 1 / (1 + np.exp(-x))

这里,np.exp(-x) 对应 exp(−x)。这个实现没有什么特别难的地方,但 是要注意参数 x 为 NumPy 数组时,结果也能被正确计算。实际上,如果在这个 sigmoid 函数中输入一个 NumPy 数组,则结果如下所示。

>>> x = np.array([-1.0, 1.0, 2.0])
>>> sigmoid(x)
array([0.26894142, 0.73105858, 0.88079708])

之所以 sigmoid 函数的实现能支持 NumPy 数组,秘密就在于 NumPy 的广播功能。根据 NumPy 的广播功能,如果在标量和NumPy 数组之间进行运算,则标量会和 NumPy 数组的各个元素进行运算。这里来看一个具体的例子。

>>> t = np.array([1.0, 2.0, 3.0])
>>> 1.0 + t
array([2., 3., 4.])
>>> 1.0 / t
array([1.        , 0.5       , 0.33333333])

在这个例子中,标量(例子中是 1.0)和 NumPy 数组之间进行了数值运算(+、/等)。结果,标量和 NumPy 数组的各个元素进行了运算,运算结果以 NumPy 数组的形式被输出。刚才的 sigmoid 函数的实现也是如此,因为 np.exp(-x) 会生成 NumPy 数组,所以 1 / (1 + np.exp(-x)) 的运算将会在 NumPy 数组的各个元素间进行。

下面我们把 sigmoid 函数画在图上。画图的代码和刚才的阶跃函数的代码几乎是一样的,唯一不同的地方是把输出 y 的函数换成了 sigmoid 函数。

import numpy as np
import matplotlib.pylab as plt


def sigmoid(x):
    return 1 / (1 + np.exp(-x))    

X = np.arange(-5.0, 5.0, 0.1)
Y = sigmoid(X)
plt.plot(X, Y)
plt.ylim(-0.1, 1.1)
plt.show()

深度学习入门学习笔记之——神经网络_第7张图片

2.5、sigmoid 函数和阶跃函数的比较

首先注意到的是 “平滑性” 的不同。sigmoid 函数是一条平滑的曲线,输出随着输入发生连续性的变化。而阶跃函数以 0 为界,输出发生急剧性的变化。sigmoid 函数的平滑性对神经网络的学习具有重要意义

import numpy as np
import matplotlib.pylab as plt

def sigmoid(x):
    return 1 / (1 + np.exp(-x))    

def step_function(x):
    return np.array(x > 0, dtype=np.int)

x = np.arange(-5.0, 5.0, 0.1)
y1 = sigmoid(x)
y2 = step_function(x)

plt.plot(x, y1)
plt.plot(x, y2, 'k--')
plt.ylim(-0.1, 1.1) #指定图中绘制的y轴的范围
plt.show()

深度学习入门学习笔记之——神经网络_第8张图片

另一个不同点是,相对于阶跃函数只能返回 0 或 1,sigmoid 函数可以返回 0.731 …、0.880 … 等实数(这一点和刚才的平滑性有关)。也就是说,感知机中神经元之间流动的是 0 或 1 的二元信号,而神经网络中流动的是连续的实数值信号

如果把这两个函数与水联系起来,则阶跃函数可以比作 “竹筒敲石” A, sigmoid 函数可以比作 “水车”。阶跃函数就像竹筒敲石一样,只做是否传送水(0或1)两个动作,而 sigmoid 函数就像水车一样,根据流过来的水量相应地调整传送出去的水量。

接着说一下阶跃函数和 sigmoid 函数的共同性质。阶跃函数和 sigmoid 函数虽然在平滑性上有差异,但是如果从宏观视角看上图,可以发现它们具有相似的形状。实际上,两者的结构均是 “输入小时,输出接近 0(为 0); 随着输入增大,输出向 1 靠近(变成 1)”。也就是说,当输入信号为重要信息时, 阶跃函数和 sigmoid 函数都会输出较大的值;当输入信号为不重要的信息时, 两者都输出较小的值。还有一个共同点是,不管输入信号有多小,或者有多大,输出信号的值都在 0 到 1 之间。

2.6、非线性函数

阶跃函数和 sigmoid 函数还有其他共同点,就是两者均为非线性函数。 sigmoid 函数是一条曲线,阶跃函数是一条像阶梯一样的折线,两者都属于非线性的函数。

在介绍激活函数时,经常会看到 “非线性函数” 和 “线性函数” 等术语。 函数本来是输入某个值后会返回一个值的转换器。向这个转换器输入某个值后,输出值是输入值的常数倍的函数称为线性函数(用数学式表示为h(x) = cx。c为常数)。因此,线性函数是一条笔直的直线。 而非线性函数,顾名思义,指的是不像线性函数那样呈现出一条直线的函数。

神经网络的激活函数必须使用非线性函数。换句话说,激活函数不能使用线性函数。为什么不能使用线性函数呢?因为使用线性函数的话,加深神经网络的层数就没有意义了。

线性函数的问题在于,不管如何加深层数,总是存在与之等效的 “无隐藏层的神经网络”。为了具体地(稍微直观地)理解这一点,我们来思考下面这个简单的例子。这里我们考虑把线性函数 h(x) = cx 作为激活函数,把 y(x) = h(h(h(x))) 的运算对应 3 层神经网络。这个运算会进行 y(x) = c × c × c × x 的乘法运算,但是同样的处理可以由 y(x) = ax(注意, a = c3 )这一次乘法运算(即没有隐藏层的神经网络)来表示。如本例所示, 使用线性函数时,无法发挥多层网络带来的优势。因此,为了发挥叠加层所带来的优势,激活函数必须使用非线性函数。

2.7、ReLU 函数

到目前为止,我们介绍了作为激活函数的阶跃函数和 sigmoid 函数。在神经网络发展的历史上,sigmoid 函数很早就开始被使用了,而最近则主要使用 ReLURectified Linear Unit)函数。

ReLU 函数在输入大于 0 时,直接输出该值;在输入小于等于 0 时,输出 0。

ReLU 函数可以表示为下面的式(7)。
h ( x ) = { x ( x > 0 ) 0 ( x ≤ 0 ) h(x)=\begin{cases} x \quad (x > 0) \\ 0 \quad (x \leq 0) \end{cases} h(x)={x(x>0)0(x0)

def relu(x):
    return np.maximum(0, x)

深度学习入门学习笔记之——神经网络_第9张图片

这里使用了 NumPymaximum 函数。maximum 函数会从输入的数值中选择较大的那个值进行输出。


3、多维数组的运算

如果掌握了 NumPy 多维数组的运算,就可以高效地实现神经网络。因此, 本节将介绍 NumPy 多维数组的运算,然后再进行神经网络的实现。

3.1、多维数组

简单地讲,多维数组就是 “数字的集合”,数字排成一列的集合、排成长方形的集合、排成三维状或者(更加一般化的)N 维状的集合都称为多维数组。下面我们就用 NumPy 来生成多维数组,先从前面介绍过的一维数组开始。

>>> import numpy as np
>>> A = np.array([1, 2, 3, 4])
>>> print(A)
[1 2 3 4]
>>> np.ndim(A)
1
>>> A.shape
(4,)
>>> A.shape[0]
4

如上所示,数组的维数可以通过 np.dim() 函数获得。此外,数组的形状可以通过实例变量 shape 获得。在上面的例子中,A 是一维数组,由 4 个元素构成。注意,这里的 A.shape 的结果是个元组(tuple)。这是因为一维数组的情况下也要返回和多维数组的情况下一致的结果。例如,二维数组时返回的是元组 (4,3),三维数组时返回的是元组 (4,3,2),因此一维数组时也同样以元组的形式返回结果。下面我们来生成一个二维数组。

>>> B = np.array([[1, 2], [3, 4], [5, 6]])
>>> print(B)
[[1 2]
 [3 4]
 [5 6]]
>>> np.ndim(B)
2
>>> B.shape
(3, 2)

这里生成了一个 3 × 2 的数组 B。3 × 2 的数组表示第一个维度有 3 个元素, 第二个维度有 2 个元素。另外,第一个维度对应第 0维,第二个维度对应第 1 维(Python 的索引从 0 开始)。二维数组也称为矩阵(matrix)。 数组的横向排列称为行(row),纵向排列称为列(column)。

3.2、神经网络的内积

下面我们使用 NumPy 矩阵来实现神经网络。这里我们以下图中的简单神经网络为对象。这个神经网络省略了偏置和激活函数,只有权重。

深度学习入门学习笔记之——神经网络_第10张图片

实现该神经网络时,要注意 X、W、Y 的形状,特别是 X 和 W 的对应维度的元素个数是否一致,这一点很重要。

>>> X = np.array([1, 2])
>>> X.shape
(2,)
>>> W = np.array([[1, 3, 5], [2, 4, 6]])
>>> print(W)
[[1 3 5]
 [2 4 6]]
>>> W.shape
(2, 3)
>>> Y = np.dot(X, W)
>>> print(Y)
[ 5 11 17]

如上所示,使用 np.dot(多维数组的点积),可以一次性计算出 Y 的结果。 这意味着,即便 Y 的元素个数为 100 或 1000,也可以通过一次运算就计算出结果!如果不使用 np.dot,就必须单独计算 Y 的每一个元素(或者说必须使用for语句),非常麻烦。因此,通过矩阵的乘积一次性完成计算的技巧,在实现的层面上可以说是非常重要的。


4、3 层神经网络的实现

现在我们来进行神经网络的实现。这里我们以下图的 3 层神经网络为对象,实现从输入到输出的(前向)处理。在代码实现方面,使用上一节介绍的 NumPy 多维数组。巧妙地使用 NumPy 数组,可以用很少的代码完成神经网络的前向处理。

深度学习入门学习笔记之——神经网络_第11张图片

4.1、符号确认

在介绍神经网络中的处理之前,我们先导入 w12(1) 、a1(1) 等符号。这些符 号可能看上去有些复杂,不过因为只在本节使用,稍微读一下就跳过去也问题不大。

本节的重点是神经网络的运算可以作为矩阵运算打包进行。因为神经网络各层的运算是通过矩阵的乘法运算打包进行的(从宏观视角来考虑),所以即便忘了(未记忆)具体的符号规则,也不影响理解后面的内容。

我们先从定义符号开始。请看下图。下图中只突出显示了从输入层神经元 x2 到后一层的神经元的权重。

如下图所示,权重和隐藏层的神经元的右上角有一个 “(1)”,它表示权重和神经元的层号(即第 1 层的权重、第 1 层的神经元)。此外,权重的右下角有两个数字,它们是后一层的神经元和前一层的神经元的索引号。比如, 表示前一层的第 2 个神经元 x2 到后一层的第 1 个神经元 的权重。权重右下角按照 “后一层的索引号、前一层的索引号” 的顺序排列。

深度学习入门学习笔记之——神经网络_第12张图片

4.2、各层间信号传递的实现

现在看一下从输入层到第 1 层的第 1 个神经元的信号传递过程,如下图所示。

深度学习入门学习笔记之——神经网络_第13张图片

上图中增加了表示偏置的神经元 “1”。请注意,偏置的右下角的索引号只有一个。这是因为前一层的偏置神经元(神经元 “1”)只有一个。

为了确认前面的内容,现在用数学式表示 a1(1)。 通过加权信号和偏置的和按如下方式进行计算。
a 1 ( 1 ) = w 11 ( 1 ) x 1 + w 12 ( 1 ) x 2 + b 1 ( 1 ) a_1^{(1)}=w_{11}^{(1)}x_1+w_{12}^{(1)}x_2+b_1^{(1)} a1(1)=w11(1)x1+w12(1)x2+b1(1)
此外,如果使用矩阵的乘法运算,则可以将第 1 层的加权和表示成下面 的式(9)。
A ( 1 ) = X W ( 1 ) + B ( 1 ) A^{(1)}=XW^{(1)}+B^{(1)} A(1)=XW(1)+B(1)
其中,A(1) 、X、B(1) 、W(1) 如下所示。
A ( 1 ) = ( a 1 ( 1 ) a 2 ( 1 ) a 3 ( 1 ) ) , X = ( x 1 x 2 ) , B ( 1 ) = ( b 1 ( 1 ) b 2 ( 1 ) b 3 ( 1 ) ) , W ( 1 ) = ( w 11 ( 1 ) w 21 ( 1 ) w 31 ( 1 ) w 12 ( 1 ) w 22 ( 1 ) w 32 ( 1 ) ) A_{(1)} = \begin{pmatrix} a_1^{(1)} & a_2^{(1)} & a_3^{(1)} \end{pmatrix}, \\ X = \begin{pmatrix} x_1 & x_2 \end{pmatrix}, \\ B^{(1)} = \begin{pmatrix} b_1^{(1)} & b_2^{(1)} & b_3^{(1)} \end{pmatrix}, \\ W^{(1)} = \begin{pmatrix} w_{11}^{(1)} & w_{21}^{(1)} & w_{31}^{(1)} \\ w_{12}^{(1)} & w_{22}^{(1)} & w_{32}^{(1)} \end{pmatrix} A(1)=(a1(1)a2(1)a3(1)),X=(x1x2),B(1)=(b1(1)b2(1)b3(1)),W(1)=(w11(1)w12(1)w21(1)w22(1)w31(1)w32(1))
下面我们用 NumPy 多维数组来实现式(9),这里将输入信号、权重、 偏置设置成任意值。

X = np.array([1.0, 0.5])
W1 = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
B1 = np.array([0.1, 0.2, 0.3])

print(W1.shape) # (2, 3)
print(X.shape) # (2,)
print(B1.shape) # (3,)

A1 = np.dot(X, W1) + B1

print(A1) # [0.3 0.7 1.1]

这个运算和上一节进行的运算是一样的。W1 是 2 × 3 的数组,X 是元素个数为 2 的一维数组。这里,W1 和 X 的对应维度的元素个数也保持了一致。

接下来,我们观察第 1 层中激活函数的计算过程。如果把这个计算过程用图来表示的话,则如下图所示。

深度学习入门学习笔记之——神经网络_第14张图片

如上图所示,隐藏层的加权和(加权信号和偏置的总和)用 a 表示,被激活函数转换后的信号用 z 表示。此外,图中 h() 表示激活函数,这里我们使用的是 sigmoid 函数。用 Python 来实现,代码如下所示。

Z1 = sigmoid(A1)

print(A1) # [0.3, 0.7, 1.1]
print(Z1) # [0.57444252, 0.66818777, 0.75026011]

这个 sigmoid() 函数就是之前定义的那个函数。它会接收 NumPy 数组, 并返回元素个数相同的 NumPy 数组。

下面,我们来实现第 1 层到第 2 层的信号传递。

W2 = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])
B2 = np.array([0.1, 0.2])

print(Z1.shape) # (3,)
print(W2.shape) # (3, 2)
print(B2.shape) # (2,)

A2 = np.dot(Z1, W2) + B2
Z2 = sigmoid(A2)

除了第 1 层的输出(Z1)变成了第 2 层的输入这一点以外,这个实现和刚才的代码完全相同。由此可知,通过使用 NumPy 数组,可以将层到层的信号传递过程简单地写出来。

深度学习入门学习笔记之——神经网络_第15张图片

最后是第 2 层到输出层的信号传递。输出层的实现也和之前的实现基本相同。不过,最后的激活函数和之前的隐藏层有所不同。

def identity_function(x):
	return x

W3 = np.array([[0.1, 0.3], [0.2, 0.4]])
B3 = np.array([0.1, 0.2])

A3 = np.dot(Z2, W3) + B3
Y = identity_function(A3) # 或者Y = A3

这里我们定义了 identity_function() 函数(也称为 “恒等函数”),并将其作为输出层的激活函数。恒等函数会将输入按原样输出,因此,这个例子中没有必要特意定义 identity_function()。这里这样实现只是为了和之前的流程保持统一。另外,下图中,输出层的激活函数用 σ() 表示,不同于隐藏层的激活函数 h()(σ 读作 sigma)。

深度学习入门学习笔记之——神经网络_第16张图片

输出层所用的激活函数,要根据求解问题的性质决定。一般地,回归问题可以使用恒等函数,二元分类问题可以使用 sigmoid 函数多元分类问题可以使用 softmax 函数

4.3、代码实现小结

至此,我们已经介绍完了 3 层神经网络的实现。现在我们把之前的代码实现全部整理一下。这里,我们按照神经网络的实现惯例,只把权重记为大写字母 W1,其他的(偏置或中间结果等)都用小写字母表示。

def init_network():
    network = {}
    network['W1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
    network['b1'] = np.array([0.1, 0.2, 0.3])
    network['W2'] = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])
    network['b2'] = np.array([0.1, 0.2])
    network['W3'] = np.array([[0.1, 0.3], [0.2, 0.4]])
    network['b3'] = np.array([0.1, 0.2])
    return network

def forward(network, x):
    W1, W2, W3 = network['W1'], network['W2'], network['W3']
    b1, b2, b3 = network['b1'], network['b2'], network['b3']
    a1 = np.dot(x, W1) + b1
    z1 = sigmoid(a1)
    a2 = np.dot(z1, W2) + b2
    z2 = sigmoid(a2)
    a3 = np.dot(z2, W3) + b3
    y = identity_function(a3)
    return y

network = init_network()
x = np.array([1.0, 0.5])
y = forward(network, x)
print(y) # [ 0.31682708 0.69627909]

这里定义了 init_network() 和 forward() 函数。init_network() 函数会进行权重和偏置的初始化并将它们保存在字典变量network 中这个字典变量 network 中保存了每一层所需的参数(权重和偏置)。forward() 函数中则封装了将输入信号转换为输出信号的处理过程。

另外,这里出现了 forward(前向)一词,它表示的是从输入到输出方向的传递处理。后面在进行神经网络的训练时,我们将介绍后向(backward, 从输出到输入方向)的处理。

至此,神经网络的前向处理的实现就完成了。通过巧妙地使用 NumPy 多维数组,我们高效地实现了神经网络。


5、输出层设计

神经网络可以用在分类问题和回归问题上,不过需要根据情况改变输出层的激活函数。一般而言,回归问题用恒等函数,分类问题用 softmax 函数

机器学习的问题大致可以分为分类问题和回归问题。分类问题是数据属于哪一个类别的问题。比如,区分图像中的人是男性还是女性的问题就是分类问题。而回归问题是根据某个输入预测一个(连续的) 数值的问题。比如,根据一个人的图像预测这个人的体重的问题就是回归问题(类似 “57.4kg” 这样的预测)。

5.1、恒等函数和 softmax 函数

恒等函数会将输入按原样输出对于输入的信息,不加以任何改动地直接输出。因此,在输出层使用恒等函数时,输入信号会原封不动地被输出。 另外,将恒等函数的处理过程用之前的神经网络图来表示的话,则如下图所示。和前面介绍的隐藏层的激活函数一样,恒等函数进行的转换处理可以用一根箭头来表示。

深度学习入门学习笔记之——神经网络_第17张图片

分类问题中使用的 softmax 函数可以用下面的式(11)表示。
y k = e x p ( a k ) ∑ i = 1 n e x p ( a i ) y_k=\frac{exp(a_k)}{\sum_{i=1}^nexp(a_i)} yk=i=1nexp(ai)exp(ak)
式(11)表示假设输出层共有 n 个神经元,计算第 k 个神经元的输出 yk。如式(11)所示, softmax 函数的分子是输入信号 ak 的指数函数,分母是所有输入信号的指数函数的和。

用图表示 softmax 函数的话,如下图所示。下图中,softmax 函数的输出通过箭头与所有的输入信号相连。这是因为,从式(11)可以看出, 输出层的各个神经元都受到所有输入信号的影响。

深度学习入门学习笔记之——神经网络_第18张图片

现在我们来实现 softmax 函数。在这个过程中,我们将使用 Python 解释器逐一确认结果。

>>> import numpy as np
>>> a = np.array([0.3, 2.9, 4.0])
>>> exp_a = np.exp(a) # 指数函数
>>> print(exp_a)
[ 1.34985881 18.17414537 54.59815003]
>>> sum_exp_a = np.sum(exp_a) # 指数函数的和
>>> print(sum_exp_a)
74.1221542101633
>>> y = exp_a / sum_exp_a
>>> print(y)
[0.01821127 0.24519181 0.73659691]

考虑到后面还要使用 softmax 函数,这里我们把它定义成如下的 Python 函数。

def softmax(a):
    exp_a = np.exp(a)
    sum_exp_a = np.sum(exp_a)
    y = exp_a / sum_exp_a
    return y

5.2、实现 softmax 函数时的注意事项

上面的 softmax 函数的实现虽然正确描述了式(11),但在计算机的运算上有一定的缺陷。这个缺陷就是溢出问题softmax 函数的实现中要进行指数函数的运算,但是此时指数函数的值很容易变得非常大。比如,e10 的值会超过 20000,e100 会变成一个后面有 40 多个 0 的超大值,e1000 的结果会返回一个表示无穷大的 inf。如果在这些超大值之间进行除法运算,结果会出现 “不确定” 的情况。

计算机处理 “数” 时,数值必须在 4 字节或 8 字节的有限数据宽度内。 这意味着数存在有效位数,也就是说,可以表示的数值范围是有限的。因此,会出现超大值无法表示的问题。这个问题称为溢出, 在进行计算机的运算时必须(常常)注意。

softmax 函数的实现可以像式(12)这样进行改进。
y k = e x p ( a k ) ∑ i = 1 n e x p ( a i ) = C e x p ( a k ) C ∑ i = 1 n e x p ( a i ) = e x p ( a k + l o g C ) ∑ i = 1 n e x p ( a i + l o g C ) = e x p ( a k + C ˊ ) ∑ i = 1 n e x p ( a i + C ˊ ) y_k=\frac{exp(a_k)}{\sum_{i=1}^nexp(a_i)}=\frac{Cexp(a_k)}{C\sum_{i=1}^nexp(a_i)} \\ =\frac{exp(a_k+logC)}{\sum_{i=1}^nexp(a_i+logC)} \\ =\frac{exp(a_k+\acute{C})}{\sum_{i=1}^nexp(a_i+\acute{C})} yk=i=1nexp(ai)exp(ak)=Ci=1nexp(ai)Cexp(ak)=i=1nexp(ai+logC)exp(ak+logC)=i=1nexp(ai+Cˊ)exp(ak+Cˊ)
首先,式(12)在分子和分母上都乘上 C 这个任意的常数(因为同时对分母和分子乘以相同的常数,所以计算结果不变)。然后,把这个 C 移动到指数函数(exp)中,记为 log C。最后,把 log C 替换为另一个符号 。

式(12)说明,在进行 softmax 的指数函数的运算时,加上(或者减去) 某个常数并不会改变运算的结果。这里的 C 可以使用任何值,但是为了防止溢出,一般会使用输入信号中的最大值。我们来看一个具体的例子。

>>> a = np.array([1010, 1000, 990])
>>> np.exp(a) / np.sum(np.exp(a)) # softmax函数的运算
__main__:1: RuntimeWarning: overflow encountered in exp
__main__:1: RuntimeWarning: invalid value encountered in true_divide
array([nan, nan, nan])		# 无法正确计算

>>> c = np.max(a) # 1010
>>> a - c
array([  0, -10, -20])
>>> np.exp(a - c) / np.sum(np.exp(a - c))
array([9.99954600e-01, 4.53978686e-05, 2.06106005e-09])

如该例所示,通过减去输入信号中的最大值(上例中的 c),我们发现原本为 nan(not a number,不确定)的地方,现在被正确计算了。综上,我们可以像下面这样实现 softmax 函数。

def softmax(a):
    c = np.max(a)
    exp_a = np.exp(a - c) # 溢出对策
    sum_exp_a = np.sum(exp_a)
    y = exp_a / sum_exp_a
    return y

5.3、softmax 函数的特征

使用 softmax() 函数,可以按如下方式计算神经网络的输出。

>>> a = np.array([0.3, 2.9, 4.0])
>>> y = softmax(a)
>>> print(y)
[0.01821127 0.24519181 0.73659691]
>>> np.sum(y)
1.0

如上所示,softmax 函数的输出是 0.0 到 1.0 之间的实数。并且,softmax 函数的输出值的总和是 1。输出总和为 1 是 softmax 函数的一个重要性质。正因为有了这个性质,我们才可以把 softmax 函数的输出解释为 “概率”。

比如,上面的例子可以解释成 y[0] 的概率是 0.018(1.8 %),y[1] 的概率是 0.245(24.5 %),y[2] 的概率是 0.737(73.7 %)。从概率的结果来看,可以说 “因为第 2 个元素的概率最高,所以答案是第 2 个类别”。而且,还可以回答 “有 74 % 的概率是第2 个类别,有 25 % 的概率是第 1 个类别,有 1 % 的概率是第 0 个类别”。也就是说,通过使用 softmax 函数,我们可以用概率的(统计的)方法处理问题。

这里需要注意的是,即便使用了 softmax 函数,各个元素之间的大小关系也不会改变。这是因为指数函数(y = exp(x))是单调递增函数。实际上, 上例中 a 的各元素的大小关系和 y 的各元素的大小关系并没有改变。比如,a 的最大值是第 2 个元素,y 的最大值也仍是第 2 个元素。

一般而言,神经网络只把输出值最大的神经元所对应的类别作为识别结果。 并且,即便使用 softmax 函数,输出值最大的神经元的位置也不会变。因此, 神经网络在进行分类时,输出层的 softmax 函数可以省略。在实际的问题中, 由于指数函数的运算需要一定的计算机运算量,因此输出层的 softmax 函数一般会被省略。

求解机器学习问题的步骤可以分为 “学习” 和 “推理” 两个阶段。首先,在学习阶段进行模型的学习,然后,在推理阶段,用学到的模型对未知的数据进行推理(分类)。如前所述,推理阶段一般会省略输出层的 softmax 函数。在输出层使用 softmax函数是因为它和神经网络的学习有关系。

5.4、输出层的神经元数量

输出层的神经元数量需要根据待解决的问题来决定。对于分类问题,输出层的神经元数量一般设定为类别的数量。比如,对于某个输入图像,预测是图中的数字 0 到 9 中的哪一个的问题(10 类别分类问题),可以像下图这样, 将输出层的神经元设定为 10个。

深度学习入门学习笔记之——神经网络_第19张图片

如上图所示,在这个例子中,输出层的神经元从上往下依次对应数字 0, 1, …, 9。此外,图中输出层的神经元的值用不同的灰度表示。这个例子中神经元 y2 颜色最深,输出的值最大。这表明这个神经网络预测的是 y2 对应的类别,也就是 “2”。


6、手写数字识别

介绍完神经网络的结构之后,现在我们来试着解决实际问题。这里我们来进行手写数字图像的分类。假设学习已经全部结束,我们使用学习到的参数,先实现神经网络的 “推理处理”。这个推理处理也称为神经网络的前向传播forward propagation)。

和求解机器学习问题的步骤(分成学习和推理两个阶段进行)一样, 使用神经网络解决问题时,也需要首先使用训练数据(学习数据)进行权重参数的学习;进行推理时,使用刚才学习到的参数,对输入数据进行分类。

6.1、MINST 数据集

这里使用的数据集是 MNIST 手写数字图像集。MNIST 是机器学习领域最有名的数据集之一,被应用于从简单的实验到发表的论文研究等各种场合。 实际上,在阅读图像识别或机器学习的论文时,MNIST 数据集经常作为实验用的数据出现。

MNIST 数据集是由 0 到 9 的数字图像构成的。训练图像有 6 万张, 测试图像有 1 万张,这些图像可以用于学习和推理。MNIST数据集的一般使用方法是,先用训练图像进行学习,再用学习到的模型度量能在多大程度上对测试图像进行正确的分类。

MNIST 的图像数据是 28 像素 × 28 像素的灰度图像(1 通道),各个像素的取值在 0 到 255 之间。每个图像数据都相应地标有 “7”、“2”、“1” 等标签。

from dataset.mnist import load_mnist

# 第一次调用会花费几分钟 ……
(x_train, t_train), (x_test, t_test) = load_mnist(flatten=True,
normalize=False)

# 输出各个数据的形状
print(x_train.shape) # (60000, 784)
print(t_train.shape) # (60000,)
print(x_test.shape) # (10000, 784)
print(t_test.shape) # (10000,)

load_mnist 函数以 “(训练图像,训练标签 ),(测试图像,测试标签 )” 的形式返回读入的 MNIST 数据。此外,还可以像load_mnist(normalize=True, flatten=True, one_hot_label=False) 这 样,设置 3 个参数。第 1 个参数 normalize 设置是否将输入图像正规化为 0.0~1.0 的值。如果将该参数设置为False,则输入图像的像素会保持原来的 0~255。第 2 个参数 flatten 设置 是否展开输入图像(变成一维数组)。如果将该参数设置为 False,则输入图像为1 × 28 × 28 的三维数组;若设置为 True,则输入图像会保存为由 784 个元素构成的一维数组。第 3 个参数 one_hot_label 设置是否将标签保存为 onehot 表示(one-hot representation)。one-hot 表示是仅正确解标签为 1,其余皆为0的数组,就像 [0,0,1,0,0,0,0,0,0,0] 这样。当 one_hot_label 为 False 时, 只是像 7、2 这样简单保存正确解标签;当 one_hot_label 为 True 时,标签则保存为 one-hot 表示。

Python 有 pickle 这个便利的功能。这个功能可以将程序运行中的对象保存为文件。如果加载保存过的 pickle 文件,可以立刻复原之前程序运行中的对象。用于读入 MNIST 数据集的 load_mnist() 函数内部也使用了 pickle 功能(在第 2 次及以后读入时)。利用 pickle 功能, 可以高效地完成 MNIST 数据的准备工作。

现在,我们试着显示 MNIST 图像,同时也确认一下数据。图像的显示使用 PIL(Python Image Library)模块。执行下述代码后,训练图像的第一张就会显示出来,如下图所示。

# coding: utf-8
import numpy as np
from dataset.mnist import load_mnist
from PIL import Image


def img_show(img):
    pil_img = Image.fromarray(np.uint8(img))
    pil_img.show()

(x_train, t_train), (x_test, t_test) = load_mnist(flatten=True, normalize=False)

img = x_train[0]
label = t_train[0]
print(label)  # 5

print(img.shape)  # (784,)
img = img.reshape(28, 28)  # 把图像的形状变为原来的尺寸
print(img.shape)  # (28, 28)

img_show(img)

深度学习入门学习笔记之——神经网络_第20张图片

这里需要注意的是,flatten=True 时读入的图像是以一列(一维)NumPy 数组的形式保存的。因此,显示图像时,需要把它变为原来的 28 像素 × 28 像素的形状。可以通过 reshape() 方法的参数指定期望的形状,更改 NumPy 数组的形状。此外,还需要把保存为 NumPy 数组的图像数据转换为 PIL 用的数据对象,这个转换处理由 Image.fromarray() 来完成。

6.2、神经网络的推理处理

下面,我们对这个 MNIST 数据集实现神经网络的推理处理。神经网络的输入层有 784 个神经元,输出层有 10 个神经元。输入层的 784 这个数字来源于图像大小的 28 × 28 = 784,输出层的 10 这个数字来源于 10 类别分类(数字 0 到 9,共 10 类别)。此外,这个神经网络有 2 个隐藏层,第 1 个隐藏层有 50 个神经元,第 2 个隐藏层有 100 个神经元。这个 50 和 100 可以设置为任何值。 下面我们先定义 get_data()、init_network()、predict() 这3个函数。

def get_data():
    (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
    return x_test, t_test


def init_network():
    with open("sample_weight.pkl", 'rb') as f:
        network = pickle.load(f)
    return network


def predict(network, x):
    W1, W2, W3 = network['W1'], network['W2'], network['W3']
    b1, b2, b3 = network['b1'], network['b2'], network['b3']

    a1 = np.dot(x, W1) + b1
    z1 = sigmoid(a1)
    a2 = np.dot(z1, W2) + b2
    z2 = sigmoid(a2)
    a3 = np.dot(z2, W3) + b3
    y = softmax(a3)

    return y

init_network() 会读入保存在 pickle 文件 sample_weight.pkl 中的学习到的权重参数 A。这个文件中以字典变量的形式保存了权重和偏置参数。剩余的 2 个函数,和前面介绍的代码实现基本相同,无需再解释。现在,我们用这 3 个函数来实现神经网络的推理处理。然后,评价它的识别精度(accuracy), 即能在多大程度上正确分类。

x, t = get_data()
network = init_network()
accuracy_cnt = 0
for i in range(len(x)):
    y = predict(network, x[i])
    p= np.argmax(y) # 获取概率最高的元素的索引
    if p == t[i]:
        accuracy_cnt += 1

print("Accuracy:" + str(float(accuracy_cnt) / len(x)))
# Accuracy:0.9352

首先获得 MNIST 数据集,生成网络。接着,用 for 语句逐一取出保存在 x 中的图像数据,用 predict() 函数进行分类。predict()函数以 NumPy 数组的形式输出各个标签对应的概率。比如输出 [0.1, 0.3, 0.2, …, 0.04] 的数组,该数组表示 “0” 的概率为0.1,“1” 的概率为 0.3,等等。然后,我们取出这个概率列表中的最大值的索引(第几个元素的概率最高),作为预测结果。可以用np.argmax(x) 函数取出数组中的最大值的索引,np.argmax(x) 将获取被赋给参数 x 的数组中的最大值元素的索引。最后,比较神经网络所预测的答案和正确解标签,将回答正确的概率作为识别精度。

执行上面的代码后,会显示 “Accuracy:0.9352”。这表示有 93.52 % 的数据被正确分类了。目前我们的目标是运行学习到的神经网络,所以不讨论识别精度本身,不过以后我们会花精力在神经网络的结构和学习方法上,思考如何进一步提高这个精度。实际上,我们打算把精度提高到 99 % 以上。

另外,在这个例子中,我们把 load_mnist 函数的参数 normalize 设置成了 True。将 normalize 设置成 True 后,函数内部会进行转换,将图像的各个像素值除以 255,使得数据的值在 0.0~1.0 的范围内。像这样把数据限定到某个范围内的处理称为正规化(normalization)。此外,对神经网络的输入数据进行某种既定的转换称为预处理(pre-processing)。这里,作为对输入图像的一种预处理,我们进行了正规化。

预处理在神经网络(深度学习)中非常实用,其有效性已在提高识别性能和学习的效率等众多实验中得到证明。在刚才的例子中,作为一种预处理,我们将各个像素值除以 255,进行了简单的正规化。 实际上,很多预处理都会考虑到数据的整体分布。比如,利用数据整体的均值或标准差,移动数据,使数据整体以 0 为中心分布,或者进行正规化,把数据的延展控制在一定范围内。除此之外,还有 将数据整体的分布形状均匀化的方法,即数据白化(whitening)等。

6.3、批处理

以上就是处理 MNIST 数据集的神经网络的实现,现在我们来关注输入数据和权重参数的 “形状”。再看一下刚才的代码实现。

下面我们使用 Python 解释器,输出刚才的神经网络的各层的权重的形状。

>>> x, _ = get_data()
>>> network = init_network()
>>> W1, W2, W3 = network['W1'], network['W2'], network['W3']
>>>
>>> x.shape
(10000, 784)
>>> x[0].shape
(784,)
>>> W1.shape
(784, 50)
>>> W2.shape
(50, 100)
>>> W3.shape
(100, 10)

我们通过上述结果来确认一下多维数组的对应维度的元素个数是否一致 (省略了偏置)。用图表示的话,如下图所示。可以发现,多维数组的对应维度的元素个数确实是一致的。此外,我们还可以确认最终的结果是输出了 元素个数为 10 的一维数组。

深度学习入门学习笔记之——神经网络_第21张图片

从整体的处理流程来看,上图中,输入一个由 784 个元素(原本是一个 28 × 28 的二维数组)构成的一维数组后,输出一个有 10个元素的一维数组。 这是只输入一张图像数据时的处理流程。

现在我们来考虑打包输入多张图像的情形。比如,我们想用 predict() 函数一次性打包处理 100 张图像。为此,可以把 x 的形状改为 100 × 784,将 100 张图像打包作为输入数据。用图表示的话,如下图所示。

深度学习入门学习笔记之——神经网络_第22张图片

如上图所示,输入数据的形状为 100 × 784,输出数据的形状为 100 × 10。这表示输入的100 张图像的结果被一次性输出了。比如,x[0] 和 y[0] 中保存了第 0 张图像及其推理结果,x[1] 和 y[1] 中保存了第 1 张图像及其推理结果,等等。

这种打包式的输入数据称为(batch)。批有 “捆” 的意思,图像就如同纸币一样扎成一捆。

批处理对计算机的运算大有利处,可以大幅缩短每张图像的处理时间。那么为什么批处理可以缩短处理时间呢?这是因为大多数处理数值计算的库都进行了能够高效处理大型数组运算的最优化。并且, 在神经网络的运算中,当数据传送成为瓶颈时,批处理可以减轻数据总线的负荷(严格地讲,相对于数据读入,可以将更多的时间用在计算上)。也就是说,批处理一次性计算大型数组要比分开逐步计算各个小型数组速度更快。

下面我们进行基于批处理的代码实现。这里用粗体显示与之前的实现的不同之处。

x, t = get_data()
network = init_network()

batch_size = 100 # 批数量
accuracy_cnt = 0

for i in range(0, len(x), batch_size):
    x_batch = x[i:i+batch_size]
    y_batch = predict(network, x_batch)
    p = np.argmax(y_batch, axis=1)
    accuracy_cnt += np.sum(p == t[i:i+batch_size])

print("Accuracy:" + str(float(accuracy_cnt) / len(x)))

首先是 range() 函数。range() 函数若指定为 range(start, end),则会生成一个由 start 到 end-1 之间的整数构成的列表。若像range(start, end, step) 这样指定 3 个整数,则生成的列表中的下一个元素会增加 step 指定的值。

在 range() 函数生成的列表的基础上,通过 x[i:i+batch_size] 从输入数据中抽出批数据。x[i:i+batch_n] 会取出从第 i 个到第i+batch_n 个之间的数据。 本例中是像 x[0:100]、x[100:200]…… 这样,从头开始以 100 为单位将数据提取为批数据。

然后,通过 argmax() 获取值最大的元素的索引。不过这里需要注意的是, 我们给定了参数 axis=1。这指定了在 100 × 10 的数组中,沿着第 1 维方向(以第 1 维为轴)找到值最大的元素的索引(第 0 维对应第 1 个维度)。


7、小结

本章介绍了神经网络的前向传播。本章介绍的神经网络和感知机在信号的按层传递这一点上是相同的,但是,向下一个神经元发送信号时, 改变信号的激活函数有很大差异。神经网络中使用的是平滑变化的 sigmoid 函数,而感知机中使用的是信号急剧变化的阶跃函数。这个差异对于神经网络的学习非常重要。

  • 神经网络中的激活函数使用平滑变化的 sigmoid 函数或 ReLU 函数;
  • 通过巧妙地使用 NumPy 多维数组,可以高效地实现神经网络;
  • 机器学习的问题大体上可以分为回归问题和分类问题;
  • 关于输出层的激活函数,回归问题中一般用恒等函数,分类问题中一般用 softmax 函数;
  • 分类问题中,输出层的神经元的数量设置为要分类的类别数;
  • 输入数据的集合称为批。通过以批为单位进行推理处理,能够实现高速的运算。

你可能感兴趣的:(tensorflow深度学习,神经网络,深度学习)