zoukankan      html  css  js  c++  java
  • [C1W2] Neural Networks and Deep Learning

    第二周:神经网络的编程基础(Basics of Neural Network programming)

    二分类(Binary Classification)

    这周我们将学习神经网络的基础知识,其中需要注意的是,当实现一个神经网络的时候,我们需要知道一些非常重要的技术和技巧。例如有一个包含 (m) 个样本的训练集,你很可能习惯于用一个 for 循环来遍历训练集中的每个样本,但是当实现一个神经网络的时候,我们通常不直接使用 for 循环来遍历整个训练集,所以在这周的课程中你将学会如何处理训练集。另外在神经网络的计算中,通常先有一个叫做前向暂停(forward pause)或叫做前向传播(forward propagation)的步骤,接着有一个叫做反向暂停(backward pause) 或叫做反向传播(backward propagation)的步骤。所以这周我也会向你介绍为什么神经网络的训练过程可以分为前向传播和反向传播两个独立的部分。

    在课程中我将使用逻辑回归(logistic regression)来传达这些想法,以使大家能够更加容易地理解这些概念。即使你之前了解过逻辑回归,我认为这里还是有些新的、有趣的东西等着你去发现和了解,所以现在开始进入正题。

    逻辑回归是一个用于二分类(binary classification)的算法。首先我们从一个问题开始说起,这里有一个二分类问题的例子,假如你有一张图片作为输入,比如这只猫,如果识别这张图片为猫,则输出标签 1 作为结果;如果识别出不是猫,那么输出标签 0 作为结果。现在我们可以用字母 (y) 来 表示输出的结果标签。

    我们来看看一张图片在计算机中是如何表示的,为了保存一张图片,需要保存三个矩阵,它们分别对应图片中的红、绿、蓝三种颜色通道,如果你的图片大小为 64 x 64 像素,那么你就有三个规模为 64 x 64 的矩阵,分别对应图片中红、绿、蓝三种像素的强度值。为了便于表示,这里我画了三个很小的矩阵,注意它们的规模为 5 x 4 而不是 64 x 64。

    为了把这些像素值放到一个特征向量中,我们需要把这些像素值提取出来,然后放入一个特征向量 (x)。为了把这些像素值转换为特征向量 (x),我们需要像下面这样定义一个特征向量 (x) 来表示这张图片,我们把所有的像素都取出来,例如 255、231 等等,直到取完所有的红色像素,接着最后是 255、134、…、255、134 等等,直到得到一个特征向量,把图片中所有的红、绿、蓝像素值都列出来。如果图片的大小为 64 x 64 像素,那么向量 (x) 的总维度,将是 64 乘以 64 乘以 3,这是三个像素矩阵中像素的总量。在这个例子中结果为 12,288。现在我们用 (n_x=12,288),来表示输入特征向量的维度,有时候为了简洁,我会直接用小写的 (n) 来表示输入特征向量 (x) 的维度。所以在二分类问题中,我们的目标就是习得一个分类器,它以图片的特征向量作为输入,然后预测输出结果 (y) 为 1 还是 0,也就是预测图片中是否有猫。

    接下来我们说明一些在余下课程中,需要用到的一些符号。

    符号定义 :

    (x):表示一个 (n_x) 维数据,为输入数据,维度为 ((n_x,1))

    (y​):表示输出结果,取值为 ((0,1)​)

    ((x^{(i)}, y^{(i)})):表示第 (i) 组数据,可能是训练数据,也可能是测试数据,此处默认为训练数据;

    (X=[x^{(1)},x^{(2)},...,x^{(m)}]):表示所有的训练数据集的输入值,放在一个 (n_x × m) 的矩阵中,其中 (m) 表示样本数目;

    (Y=[y^{(1)},y^{(2)},...,y^{(m)}]):对应表示所有训练数据集的输出值,维度为 (1×m)

    用一对 ((x,y)) 来表示一个单独的样本,(x) 代表 (n_x) 维的特征向量,(y) 表示标签(输出结果)只能为 0 或 1。 而训练集将由 (m) 个训练样本组成,其中 ((x^{(1)},y^{(1)})) 表示第一个样本的输入和输出,((x^{(2)},y^{(2)})) 表示第二个样本的输入和输出,直到最后一个样本 ((x^{(m)},y^{(m)})),然后所有的这些一起表示整个训练集。有时候为了强调这是训练样本的个数,会写作 (M_{train}),当涉及到测试集的时候,我们会使用 (M_{test}) 来表示测试集的样本数,所以这是测试集的样本数:

    最后为了能把训练集表示得更紧凑一点,我们会定义一个矩阵用大写 (X) 的表示,它由输入向量 (x^{(1)})(x^{(2)}) 等组成,如下图放在矩阵的列中,所以现在我们把 (x^{(1)}) 作为第一列放在矩阵中,(x^{(2)}) 作为第二列,(x^{(m)}) 放到第 (m) 列,然后我们就得到了训练集矩阵 (X)。所以这个矩阵有 (m) 列,(m) 是训练集的样本数量,然后这个矩阵的高度记为 (n_x),注意有时候可能因为其他某些原因,矩阵 (X) 会由训练样本按照行堆叠起来而不是列,如下图所示:(x^{(1)}) 的转置直到 (x^{(m)}) 的转置,但是在实现神经网络的时候,使用左边的这种形式,会让整个实现的过程变得更加简单:

    现在来简单温习一下:(X) 是一个规模为 (n_x) 乘以 (m) 的矩阵,当你用 Python 实现的时候,你会看到 X.shape,这是一条 Python 命令,用于显示矩阵的规模,即 X.shape 等于 ((n_x,m))(X) 是一个规模为 (n_x) 乘以 (m) 的矩阵。所以综上所述,这就是如何将训练样本(输入向量 (X) 的集合)表示为一个矩阵。

    那么输出标签 (y) 呢?同样的道理,为了能更加容易地实现一个神经网络,将标签 (y) 放在列中将会使得后续计算非常方便,所以我们定义大写的 (Y) 等于 ({{y}^{left( 1 ight)}},{{y}^{left( m ight)}},...,{{y}^{left( m ight)}}),所以在这里是一个规模为 1 乘以 (m) 的矩阵,同样地使用 Python 将表示为 Y.shape 等于 ((1,m)),表示这是一个规模为 1 乘以 (m) 的矩阵。

    当你在后面的课程中实现神经网络的时候,你会发现,一个好的符号约定能够将不同训练样本的数据很好地组织起来。而我所说的数据不仅包括 (x) 或者 (y) 还包括之后你会看到的其他的量。将不同的训练样本的数据提取出来,然后就像刚刚我们对 (x) 或者 (y) 所做的那样,将他们堆叠在矩阵的列中,形成我们之后会在逻辑回归和神经网络上要用到的符号表示。在下节课中,我们将以逻辑回归作为开始。

    逻辑回归(Logistic Regression)

    在这节课中,我们会重温逻辑回归学习算法,该算法适用于二分类问题,本节将主要介绍逻辑回归的 Hypothesis Function(假设函数)。

    对于二元分类问题来讲,给定一个输入特征向量 (X),它可能对应一张图片,你想识别这张图片识别看它是否是一只猫或者不是一只猫的图片,你想要一个算法能够输出预测,你只能称之为 (hat{y}),也就是你对实际值 (y) 的估计。更正式地来说,你想让 (hat{y}) 表示 (y) 等于 1 的一种可能性或者是机会,前提条件是给定了输入特征 (X),即:Give (x), want (hat{y}=P(y=1|x)), (x in mathbb{R}^{n_x}, 0 leq hat{y} leq 1)。换句话来说,如果 (X) 是我们在上节课中看到的图片,你想让 (hat{y}) 来告诉你这是一只猫的图片的机率有多大。在之前的课程中所说的,(X) 是一个 (n_x) 维的向量(相当于有 (n_x) 个特征的特征向量)。我们用 (w) 来表示逻辑回归的参数,这也是一个 (n_x) 维向量(因为 (w) 实际上是特征权重,维度与特征向量相同),参数里面还有 (b),这是一个实数(表示偏差),即:Parameter : (w in mathbb{R}^{n_x}, ;b in mathbb{R})。所以给出输入 (x) 以及参数 (w)(b) 之后,我们怎样产生输出预测值 (hat{y}),一件你可以尝试却不可行的事是让 (hat{y}={{w}^{ op}}x+b)

    这时候我们得到的是一个关于输入 (x) 的线性函数,实际上这是你在做线性回归时所用到的,但是这对于二元分类问题来讲不是一个非常好的算法,因为你想让 (hat{y}) 表示实际值 (y) 等于 1 的机率的话,(hat{y}) 应该在 0 到 1 之间。这是一个需要解决的问题,因为 (w^{ op}x+b) 可能比 1 要大得多,或者甚至为一个负值。对于你想要的在 0 和 1 之间的概率来说它是没有意义的,因此在逻辑回归中,我们的输出应该是 (hat{y}) 等于由上面得到的线性函数式子作为自变量的 sigmoid 函数中,即:(hat{y} = sigma(w^{ op}x + b)),将线性函数转换为非线性函数。

    我们再来看一下 sigmoid 函数的图像,如果我把水平轴作为 (z) 轴,那么关于 (z) 的 sigmoid 函数是这样的,它是平滑地从 0 走向 1,让我在这里标记纵轴,这是 0,曲线与纵轴相交的截距是 0.5,这就是关于 (z) 的 sigmoid 函数的图像。我们通常都使用 (z) 来表示 (w^{ op}x + b) 的值,即:(z = w^{ op}x + b)

    关于 sigmoid 函数的公式是这样的,(sigma left( z ight)=frac{1}{1+{{e}^{-z}}}),在这里 (z) 是一个实数,这里要说明一些要注意的事情,如果 (z) 非常大那么 ({{e}^{-z}}) 将会接近于 0,关于 (z) 的 sigmoid 函数将会近似等于 1 除以 1 加上某个非常接近于 0 的项,因为 (e) 的指数如果是个绝对值很大的负数的话,这项将会接近于 0,即:(sigma(z) approx frac{1}{1+0} = 1)。所以如果 (z) 很大的话那么关于 (z) 的 sigmoid 函数会非常接近 1。相反地,如果 (z) 非常小或者说是一个绝对值很大的负数,那么关于 ({{e}^{-z}}) 这项会变成一个很大的数,你可以认为这是 1 除以 1 加上一个非常非常大的数,所以这个就接近于 0,即:(sigma(z) approx frac{1}{1+ ext{BigNum}} approx 0)。所以,实际上你看到当 (z) 变成一个绝对值很大的负数,关于 (z) 的 sigmoid 函数就会非常接近于 0,因此当你实现逻辑回归时,你的工作就是去让机器学习参数 (w) 以及 (b) 这样才使得 (hat{y}) 成为对 (y=1) 这一情况的概率的一个很好的估计。

    在继续进行下一步之前,介绍一种符号惯例,可以让参数 (w) 和参数 (b) 分开。在符号上要注意的一点是当我们对神经网络进行编程时经常会让参数 (w) 和参 (b) 分开,在这里参数 (b) 对应的是一种偏置。在之前的机器学习课程里,你可能已经见过处理这个问题时的其他符号表示。比如在某些例子里,你定义一个额外的特征称之为 (x_0),并且使它等于 1,那么现在 (X) 就是一个 (n_x + 1) 维的变量,然后你定义 (hat{y} = sigma left( {{ heta }^{ op}}x ight)) 的 sigmoid 函数。在这个备选的符号惯例里,你有一个参数向量 ( heta_0, heta_1, heta_2, ..., heta_{n_x}),这样 ( heta_0) 就充当了 (b),这是一个实数,而剩下的 ( heta_1) 直到 ( heta_{n_x}) 充当了 (w),结果就是当你实现你的神经网络时,有一个比较简单的方法是保持 (b)(w) 分开。但是在这节课里我们不会使用任何这类符号惯例,所以不用去担心。 现在你已经知道逻辑回归模型是什么样子了,下一步要做的是训练参数 (w) 和参数 (b),你需要定义一个代价函数,让我们在下节课里对其进行解释。

    逻辑回归的代价函数(Logistic Regression Cost Function)

    在上节课中,我们讲了逻辑回归模型,本节课里,我们讲逻辑回归的代价函数(也翻译作成本函数)。

    为什么需要代价函数:

    为了训练逻辑回归模型的参数参数 (w) 和参数 (b) 我们,需要一个代价函数,通过训练代价函数来得到参数 (w) 和参数 (b)。先看一下逻辑回归的输出函数:

    (hat{y}^{(i)}=sigma(w^{ op}x^{(i)} + b);), where (sigma(z^{(i)})=frac{1}{1+e^{-z^{(i)}}})

    Given ({(x^{(1)},y^{(1)}),...,(x^{(m)}, y^{(m)})}), want (hat{y}^{(i)}approx y^{(i)})

    为了让模型通过学习调整参数,你需要给予一个 (m) 样本的训练集,这会让你在训练集上找到参数 (w) 和参数 (b),,来得到你的输出。

    对训练集的预测值,我们将它写成 (hat{y}),我们更希望它会接近于训练集中的 (y) 值,为了对上面的公式更详细的介绍,我们需要说明上面的定义是对一个训练样本来说的,这种形式也使用于每个训练样本,我们使用这些带有圆括号的上标来区分索引和样本,训练样本 (i) 所对应的预测值是 ({{y}^{(i)}}),是用训练样本的 ({{w}^{ op}}{{x}^{(i)}}+b) 然后通过 sigmoid 函数来得到,也可以把 (z) 定义为 ({{z}^{(i)}}={{w}^{ op}}{{x}^{(i)}}+b),我们将使用这个符号 ((i)) 注解,上标 ((i)) 来指明数据表示 (x) 或者 (y) 或者 (z) 或者其他数据的第 (i) 个训练样本,这就是上标 ((i)) 的含义。

    损失函数:

    损失函数 又叫做 误差函数,用来衡量算法的运行情况,Loss(error)function : (Lleft( hat{y},y ight)).

    我们通过这个 (L) 称为的损失函数,来衡量预测输出值和实际值有多接近。一般我们用预测值和实际值的平方差或者它们平方差的一半,但是通常在逻辑回归中我们不这么做,因为当我们在学习逻辑回归参数的时候,会发现我们的优化目标不是凸优化,只能找到多个局部最优值,梯度下降法很可能找不到全局最优值,虽然平方差是一个不错的损失函数,但是我们在逻辑回归模型中会定义另外一个损失函数。

    我们在逻辑回归中用到的损失函数是:(mathcal{L}(hat{y}, y)=-Big(y ; mathrm{log} ; hat{y}+(1-y) ; mathrm{log} ; (1-hat{y})Big))

    为什么要用这个函数作为逻辑损失函数?当我们使用平方误差作为损失函数的时候,你会想要让这个误差尽可能地小,对于这个逻辑回归损失函数,我们也想让它尽可能地小,为了更好地理解这个损失函数怎么起作用,我们举两个例子:

    (y=1) 时损失函数 (L=-log (hat{y})),如果想要损失函数 (L) 尽可能得小,那么 (hat{y}) 就要尽可能大,因为 sigmoid 函数取值 ([0,1]),所以 (hat{y}) 会无限接近于 1。

    (y=0) 时损失函数 (L=-log (1-hat{y})),如果想要损失函数 (L) 尽可能得小,那么 (hat{y}) 就要尽可能小,因为 sigmoid 函数取值 ([0,1]),所以 (hat{y}) 会无限接近于 0。

    代价函数:

    在这门课中有很多的函数效果和现在这个类似,就是如果 (y) 等于 1,我们就尽可能让 (hat{y}) 变大,如果 (y) 等于 0,我们就尽可能让 (hat{y}) 变小。损失函数(loss function)是在单个训练样本中定义的,它衡量了在单个训练样本上的表现。为了衡量算法在全部训练样本上的表现,我们需要定义一个算法的代价函数(cost function),算法的代价函数是对 (m) 个样本的损失函数求和然后除以 (m):

    (J(w, b) = frac{1}{m}sumlimits_{i=1}^{m}mathcal{L}(hat{y}^{(i)}, y^{(i)})=-frac{1}{m}sumlimits_{i=1}^{m}Big[y^{(i)} ; mathrm{log} ; hat{y}^{(i)}+(1-y^{(i)}) ; mathrm{log} ; (1-hat{y}^{(i)})Big])

    损失函数 只适用于像这样的单个训练样本,而 代价函数 是参数的总代价,所以在训练逻辑回归模型时候,我们需要找到合适的 (w)(b),来让代价函数 (J) 的总代价降到最低。 根据我们对逻辑回归算法的推导及对单个样本的损失函数的推导和针对算法所选用参数的总代价函数的推导,结果表明逻辑回归可以看做是一个非常小的神经网络,在下节课中,我们会看到神经网络会做什么。

    梯度下降(Gradient Descent)

    梯度下降法可以做什么?让我们一起来看一下。

    比如在你的训练集上,你正在通过最小化代价函数(成本函数)(J(w,b)) 来训练的参数 (w)(b),如图,在第二行给出和之前一样的逻辑回归算法的代价函数(成本函数)。为了更形象的说明梯度下降法,我们使用图中的这个 3D 的曲面图。

    在这个图中,横轴表示你的空间参数 (w)(b),在实践中,(w) 可以是更高的维度,但是为了更好地绘图,我们定义 (w)(b),都是单一实数,代价函数(成本函数)(J(w,b)) 是在水平轴 (w)(b) 上的曲面,因此曲面的高度就是 (J(w,b)) 在某一点的函数值。我们所做的就是找到使得代价函数(成本函数)(J(w,b)) 函数值是最小值,对应的参数 (w)(b)

    代价函数(成本函数)(J(w,b)) 是一个凸函数(convex function),像一个大碗一样。而图中这种波浪式的形状这就与刚才的碗状有些相反,因为它是非凸的并且有很多不同的局部最小值。由于逻辑回归的代价函数(成本函数)(J(w,b)) 特性,我们必须定义代价函数(成本函数)(J(w,b)) 为凸函数。 初始化 (w)(b)

    你可以用图中最上边的那个小红点来初始化参数 (w)(b),也可以采用随机初始化的方法,对于逻辑回归几乎所有的初始化方法都有效,因为函数是凸函数,无论在哪里初始化,应该都会达到同一点或大致相同的点。

    现在假设我们以图中最上方的小红点的坐标来初始化参数 (w)(b)。然后朝最陡的下坡方向走一步,不断地迭代,走到了图中第二个小红点处。我们可能停在这里也有可能继续朝最陡的下坡方向再走一步,经过两次迭代走到第三个小红点处。通过以上的几个步骤我们可以走到全局最优解或者接近全局最优解的地方,也就是代价函数(成本函数)(J(w,b)) 这个凸函数的最小值点。

    梯度下降法的细节化说明(仅有一个参数)

    假定代价函数(成本函数)(J(w)) 只有一个参数 (w),即用一维曲线代替多维曲线,这样可以更好画出图像。

    迭代就是不断重复做如下的公式:

    (w:=w-alphafrac{partial J(w,b)}{partial w})

    (b:=b-alphafrac{partial J(w,b)}{partial b})

    同时更新(simultaneously update)(w, b)

    (:=) 表示更新参数,(alpha) 表示学习率(learning rate),用来控制步长(step),即向下走一步的长度 (frac{dJ(w)}{dw}) 就是函数 (J(w))(w) 求导(derivative),在代码中我们会使用 (dw) 表示这个结果。对于导数更加形象化的理解就是斜率(slope),如图该点的导数就是这个点(图中紫色三角形斜边中点所示)相切于 (J(w)) 的小三角形的高除宽。假设我们以该点为初始化点,那么此处斜率的符号是正的,即 (frac{dJ(w)}{dw} > 0),所以接下来会向左走一步。整个梯度下降法的迭代过程就是不断地向左走,直至逼近最小值点。假设我们以图中右上的点为初始化点,该点处斜率的符号是负的,即 (frac{dJ(w)}{dw} < 0),所以接下来会向右走一步。整个梯度下降法的迭代过程就是不断地向右走,即朝着最小值点方向走。

    梯度下降法的细节化说明(两个参数)

    逻辑回归的代价函数(成本函数)(J(w,b)) 是含有两个参数的。$partial $ 表示求偏导符号,可以读作 round, (frac{partial J(w,b)}{partial w}) 就是函数 (J(w,b))(w) 求偏导,在代码中我们会使用 (dw) 表示这个结果,(frac{partial J(w,b)}{partial b}) 就是函数 (J(w,b))(b) 求偏导,在代码中我们会使用 (db) 表示这个结果, 小写字母 (d) 用在求导数(derivative),即函数只有一个参数, 偏导数符号 (partial) 用在求偏导(partial derivative),即函数含有两个以上的参数。

    导数(Derivatives)

    这节课我主要是想帮你获得对微积分和导数直观的理解。或许你认为自从大学毕以后你再也没有接触微积分。这取决于你什么时候毕业,也许有一段时间了,如果你顾虑这点,请不要担心。为了高效应用神经网络和深度学习,你并不需要非常深入理解微积分。因此如果你在学习这门课时心想:"哇哦,这些知识、这些运算对我来说很复杂"。我给你的建议是:坚持学习,并完成编程作业,然后你就可以使用深度学习了。在第四周之后的学习中,你会看到定义的很多种类的函数,通过微积分,它们能够帮助你把所有的知识结合起来,其中有的叫做前向函数和反向函数,因此你不需要了解所有你使用的那些微积分中的函数。所以你不用担心它们,除此之外在对深度学习的尝试中,这周我们要进一步深入了解微积分的细节。所以你只需要直观地认识微积分,用来构建和成功的应用这些算法。最后,如果你是精通微积分的那一小部分人群,你对微积分非常熟悉,你可以跳过这部分课程。其他同学让我们开始深入学习导数。

    一个函数 (f(a)=3a),它是一条直线。下面我们来简单理解下导数。让我们看看函数中几个点,假定 (a=2),那么 (f(a))(a) 的 3 倍等于 6,也就是说如果 (a=2),那么函数 (f(a)=6)。假定稍微改变一点点 (a) 的值,只增加一点,变为 2.001,这时 (a) 将向右做微小的移动。0.001 的差别实在是太小了,不能在图中显示出来,我们把它右移一点,现在 (f(a)) 等于 (a) 的 3 倍是 6.003,画在图里,比例不太符合。请看绿色高亮部分的这个小三角形,如果向右移动 0.001,那么 (f(a)) 增加 0.003,(f(a)) 的值增加 3 倍于右移的 (a),因此我们说函数 (f(a))(a=2) 时的导数是这个斜率,或者说,当 (a=2) 时,斜率是 3。导数这个概念意味着斜率,导数听起来是一个很可怕、很令人惊恐的词,但是斜率以一种很友好的方式来描述导数这个概念。所以提到导数,我们把它当作函数的斜率就好了。更正式的斜率定义为在上图这个绿色的小三角形中,高除以宽。即斜率等于 0.003 除以 0.001,等于 3。或者说导数等于 3,这表示当你将 (a) 右移 0.001,(f(a)) 的值增加 3 倍水平方向的量。

    现在让我们从不同的角度理解这个函数。 假设 (a=5) ,此时 (f(a) = 3a = 15)。 把 (a) 右移一个很小的幅度,增加到 5.001,(f(a) = 15.003)。 即在 (a=5) 时,斜率是 3,这就是表示,当微小改变变量 (a) 的值,(frac{df(a)}{da} = 3) 。一个等价的导数表达式可以这样写 (frac{d}{da}f(a)) ,不管你是否将 (f(a)) 放在上面或者放在右边都没有关系。 在本节课中,我讲解导数讨论的情况是我们将 (a) 偏移 0.001,如果你想知道导数的数学定义,导数是你右移很小的 (a) 值(不是 0.001,而是一个非常非常小的值)。通常导数的定义是你右移 (a) (可度量的值)一个无限小的值,(f(a)) 增加 3 倍(增加了一个非常非常小的值)。也就是这个三角形右边的高度。

    那就是导数的正式定义。但是为了直观的认识,我们将探讨右移 (a=0.001) 这个值,即使 0.001 并不是无穷小的可测数据。导数的一个特性是:这个函数任何地方的斜率总是等于 3,不管 (a=2)(a=5),这个函数的斜率总等于 3,也就是说不管 (a) 的值如何变化,如果你增加 0.001,(f(a)) 的值就增加 3 倍。这个函数在所有地方的斜率都相等。一种证明方式是无论你将小三角形画在哪里,它的高除以宽总是 3。

    我希望带给你一种感觉:什么是斜率?什么是导函数?对于一条直线,在例子中函数的斜率,在任何地方都是 3。在下节课让我们看一个更复杂的例子,这个例子中函数在不同点的斜率是可变的。

    更多的导数例子(More Derivative Examples)

    在本节课中我将给出一个更加复杂的例子,在这个例子中,函数在不同点处的斜率是不一样的。

    先来举个例子,我在这里画一个函数,(f(a) = {{ ext{a}}^{ ext{2}}}),如果 (a= ext{2}) 的话,那么 (f(a)=4)。让我们稍稍往右推进一点点,现在 (a= ext{2}. ext{001}) ,则 (f(a)approx 4.004) (如果你用计算器算的话,这个准确的值应该为 4.004001,为了简便起见,省略了后面部分),如果你在这儿画一个小三角形,你就会发现,如果把 (a) 往右移动 0.001,那么 (f(a)) 将增大四倍,即增大 0.004。在微积分中我们把这个三角形斜边的斜率,称为 (f(a)) 在点 (a= ext{2}) 处的导数(即为4),或者写成微积分的形式,当 (a= ext{2}) 的时候, (frac{d}{da}f(a)=4)。由此可知,函数 (f(a)={{a}^{{2}}}),在 (a) 取不同值的时候,它的斜率是不同的,这和上节课中的例子是不同的。

    这里有种直观的方法可以解释,为什么一个点的斜率,在不同位置会不同如果你在曲线上,的不同位置画一些小小的三角形你就会发现,三角形高和宽的比值,在曲线上不同的地方,它们是不同的。所以当 (a=2) 时,斜率为 4;而当 (a=5) 时,斜率为 10 。如果你翻看微积分的课本,课本会告诉你,函数 (f(a)={{a}^{{2}}}) 的斜率(即导数)为 (2a)。这意味着任意给定一点 (a),如果你稍微将 (a),增大 0.001,那么你会看到 (f(a)) 将增大 (2a),即增大的值为点在 (a) 处斜率或导数,乘以你向右移动的距离。

    现在有个小细节需要注意,导数增大的值,不是刚好等于导数公式算出来的值,而只是根据导数算出来的一个估计值。

    为了总结这堂课所学的知识,我们再来看看几个例子:

    假设 (f(a)={{a}^{ ext{3}}}),如果你翻看导数公式表,你会发现这个函数的导数,等于 (3{{a}^{2}})。所以这是什么意思呢,同样地举一个例子:我们再次令 (a=2),所以 ({{a}^{3}}=8) ,如果我们又将 (a) 增大一点点,你会发现 (f(a)approx 8.012), 你可以自己检查一遍,如果我们取 8.012,你会发现 ({{2.001}^{3}}),和 8.012 很接近,事实上当 (a=2) 时,导数值为 (3×{{2}^{2}}),即 (3×4=12)。所以导数公式,表明如果你将(a)向右移动 0.001 时,(f(a)) 将会向右移动 12 倍,即 0.012。

    来看最后一个例子,假设 (f(a)={{log }_{e}}a),有些可能会写作 (ln a),函数 (log_e a) 的斜率应该为 (frac{1}{a}),所以我们可以解释如下:如果 (a) 取任何值,比如又取 (a=2),然后又把 (a) 向右边移动 0.001 那么 (f(a)) 将增大 (frac{ ext{1}}{a} imes ext{0} ext{.001}),如果你借助计算器的话,你会发现当 (a=2)(f(a)approx ext{0} ext{.69315});而 (a=2.001) 时,(f(a)approx ext{0} ext{.69365})。所以 (f(a)) 增大了 0.0005,如果你查看导数公式,当 (a=2) 的时候,导数值 (frac{d}{da}f(a)=frac{ ext{1}}{ ext{2}})。这表明如果你把 (a) 增大 0.001,(f(a)) 将只会增大 0.001 的二分之一,即 0.0005。如果你画个小三角形你就会发现,如果 (x) 轴增加了 0.001,那么 (y) 轴上的函数 (log_e a),将增大 0.001 的一半 即 0.0005。所以 (frac{1}{a}) 就是当 (a=2) 时这条线的斜率。这些就是有关导数的一些知识。

    在本节课中,你只需要记住两点:

    第一点,导数就是斜率,而函数的斜率,在不同的点是不同的。在第一个例子中 (f(a)= ext{3}a) ,这是一条直线,在任何点它的斜率都是相同的,均为 3。但是对于函数 (f(a)={{ ext{a}}^{ ext{2}}}) ,或者 (f(a)=log_e a),它们的斜率是变化的,所以它们的导数或者斜率,在曲线上不同的点处是不同的。

    第二点,如果你想知道一个函数的导数,你可参考你的微积分课本或者维基百科,然后你应该就能找到这些函数的导数公式。

    最后我希望,你能通过我生动的讲解,掌握这些有关导数和斜率的知识,下一课我们将讲解计算图,以及如何用它来求更加复杂的函数的导数。

    计算图(Computation Graph)

    可以说,一个神经网络的计算,都是按照前向或反向传播过程组织的。首先我们计算出一个新的网络的输出(前向过程),紧接着进行一个反向传输操作。后者我们用来计算出对应的梯度或导数。计算图解释了为什么我们用这种方式组织这些计算过程。在本节课中,我们将举一个例子说明计算图是什么。让我们举一个比逻辑回归更加简单的,或者说不那么正式的神经网络的例子。

    我们尝试计算函数 (J)(J) 是由三个变量 (a,b,c) 组成的函数,这个函数是 ( ext{3(a}+ ext{bc)}) 。计算这个函数实际上有三个不同的步骤,首先是计算 (b) 乘以 (c),我们把它储存在变量 (u) 中,因此 ({u}={bc}); 然后计算 (v=a+u);最后输出 (J=3v),这就是要计算的函数 (J)。我们可以把这三步画成如下的计算图,我先在这画三个变量 (a,b,c),第一步就是计算 (u=bc),我在这周围放个矩形框,它的输入是 (b,c),接着第二步 (v=a+u),最后一步 (J=3v)。举个例子: (a=5, b=3, c=2)(u=bc) 就是 6,(v=a+u) ,就是 5 + 6 = 11。(J) 是 3 倍的 ,因此。即 (3 × (5 + 3 × 2))。如果你把它算出来,实际上得到 33 就是 (J) 的值。 当有不同的或者一些特殊的输出变量时,例如本例中的 (J) 和逻辑回归中你想优化的代价函数 (J),因此计算图用来处理这些计算会很方便。

    从这个小例子中我们可以看出,通过一个从左向右的过程,你可以计算出 (J) 的值。为了计算导数,从右到左(和蓝色箭头过程相反的红色箭头)的过程是用于计算导数最自然的方式。概括一下:计算图组织计算的形式是用蓝色箭头从左到右的计算,让我们看看下节课中如何进行反向红色箭头(也就是从右到左)的导数计算,让我们继续下节课的学习。

    使用计算图求导数(Derivatives with a Computation Graph)

    在上节课中,我们看了一个使用流程计算图来计算函数 (J) 的例子。现在我们梳理一下流程图的描述,看看你如何利用它计算出函数 (J) 的导数。

    下面用到的公式:

    (frac{dJ}{du}=frac{dJ}{dv} cdot frac{dv}{du})

    (frac{dJ}{da}=frac{dJ}{dv} cdot frac{dv}{da})

    (frac{dJ}{db}=frac{dJ}{du} cdot frac{du}{db}=frac{dJ}{dv} cdot frac{dv}{du} cdot frac{du}{db})

    (frac{dJ}{dc}=frac{dJ}{du} cdot frac{du}{dc}=frac{dJ}{dv} cdot frac{dv}{du} cdot frac{du}{dc})

    先来看下下图中的这个流程图,假设你要计算 (frac{{dJ}}{{dv}}),那要怎么算呢?好,比如说,我们要把这个 (v) 值拿过来,改变一下,那么 (J) 的值会怎么变呢?

    所以定义上 (J = 3v),现在 (v = 11),所以如果你让 (v) 增加一点点,比如到 11.001,那么$ J = 3v = 33.003$,所以我这里 (v) 增加了 0.001,然后最终结果是 (J) 上升到原来的 3 倍,所以 (frac{{dJ}}{{dv}} = 3),因为对于任何 (v) 的增量 (J) 都会有 3 倍增量,而且这类似于我们在上节课中的例子,我们有 (f(a)= 3a),然后我们推导出 (frac{{df}(a)}{{da}} = 3),所以这里我们有 (J = 3v),所以 (frac{{dJ}}{{dv}} = 3),这里 (J) 扮演了 (f) 的角色,在之前的课程里的例子。

    在术语反向传播算法中,我们看到,如果你想计算最后输出变量的导数,使用你最关心的变量对 (v) 的导数,那么我们就做完了一步反向传播,在这个流程图中是一个反向步骤。

    我们来看另一个例子,(frac{{dJ}}{da}) 是多少呢?换句话说,如果我们提高 (a) 的数值,对 (J) 的数值有什么影响?

    好,我们看看这个例子。变量 (a=5),我们让它增加到 5.001,那么对 (v) 的影响就是 (a + u),之前 (v = 11),现在变成 11.001,我们从上面看到现在 (J) 就变成 33.003 了,所以我们看到的是,如果你让 (a) 增加 0.001,(J) 增加 0.003。那么增加 (a),我是说如果你把这个 5 换成某个新值,那么 (a) 的改变量就会传播到流程图的最右,所以 (J) 最后是 33.003。所以 (J) 的增量是 3 乘以 (a) 的增量,意味着这个导数是 3。

    要解释这个计算过程,其中一种方式是:如果你改变了 (a),那么也会改变 (v),通过改变 (v),也会改变 (J),所以 (J) 值的净变化量,当你提升这个值(0.001),当你把 (a) 值提高一点点,这就是 (J) 的变化量(0.003)。

    首先 $ $ 增加了,(v) 也会增加,(v) 增加多少呢?这取决于 (frac{{dv}}{da}),然后 (v) 的变化导致 (J) 也在增加,所以这在微积分里实际上叫链式法则,如果 (a) 影响到 (v)(v) 影响到 (J),那么当你让 (a) 变大时,(J) 的变化量就是当你改变 (a) 时,(v) 的变化量乘以改变 (v)(J) 的变化量。

    我们从这个计算中看到,如果你让 (a) 增加 0.001,(v) 也会变化相同的大小,所以 (frac{{dv}}{da} = 1)。事实上,如果你代入进去,我们之前算过 (frac{{dJ}}{{dv}} = 3)(frac{{dv}}{da} = 1),所以这个乘积 3 × 1,实际上就给出了正确答案,(frac{{dJ}}{da} = 3)

    这张小图表示了如何计算,(frac{{dJ}}{{dv}}) 就是 (J) 对变量 (v) 的导数,它可以帮助你计算 (frac{{dJ}}{da}),所以这是另一步反向传播计算。

    现在我想介绍一个新的符号约定,当你编程实现反向传播时,通常会有一个最终输出值是你要关心的,最终的输出变量,你真正想要关心或者说优化的。在这种情况下最终的输出变量是 (J),就是流程图里最后一个符号,所以有很多计算尝试计算输出变量的导数,所以输出变量对某个变量的导数,我们就用 d + var 命名,所以在很多计算中你需要计算最终输出结果的导数,在这个例子里是 (J),还有各种中间变量,比如 (a、b、c、u、v),当你在软件里实现的时候,变量名叫什么?你可以做的一件事是,在 python 中,你可以写一个很长的变量名,比如 dFinalOutputvar_dvar,但这个变量名有点长,我们就用 dJ_dvar。但因为你一直对 (dJ) 求导,对这个最终输出变量求导,这是不变的,可以省略掉。所以我这里介绍一个新的简化的符号,当你编程的时候,在代码里,我们就只使用变量名 dvar,来表示那个量,言外之意就是将 dJ_ 省略掉。

    好,所以在程序里是 dvar 表示导数,你关心的最终变量 (J) 的导数,有时最后是 (L),对代码中各种中间量的导数,所以代码里这个东西,你用 dv 表示这个值,所以你的代码表示就是 dv = 3。

    好,所以我们通过这个流程图完成部分的后向传播算法。我们在下一张幻灯片看看这个例子剩下的部分。

    我们清理出一张新的流程图,我们回顾一下,到目前为止,我们一直在往回传播,并计算 dv = 3,再次,dv 是代码里的变量名,其真正的定义是 (frac{{dJ}}{{dv}})。以及 da = 3,再次,da 是代码里的变量名,其实代表 (frac{{dJ}}{da}) 的值。

    我们继续计算导数,来看看这个值 (u),那么 (frac{dJ}{du}) 是多少呢?通过和之前类似的计算,现在我们从 (u = 6) 出发,如果你令 (u) 增加到 6.001,那么 (v) 之前是 11,现在变成 11.001了,(J) 就从 33 变成 33.003,所以 (J) 增量是 3 倍,所以 (frac{{dJ}}{du} = 3)。对 (u) 的分析很类似对 (a) 的分析,实际上这计算起来就是 (frac{{dJ}}{dv} cdot frac{{dv}}{du}),有了这个,我们可以算出 (frac{{dJ}}{dv} = 3)(frac{{dv}}{du} = 1),最终算出结果是 3 × 1 = 3。所以通过这一步的反向传播,我们最终计算出 du = 3,这里的 du 当然了,就是 (frac{{dJ}}{du})

    现在,我们仔细看看最后一个例子,那么 (frac{{dJ}}{db}) 呢?想象一下,如果你改变了 (b) 的值,然后让 (J) 值变化一点,你想要到达最大或最小,那么导数是什么呢?这个 (J) 函数的斜率,当你稍微改变 (b) 值之后。事实上,使用微积分链式法则,这可以写成两者的乘积,就是 (frac{{dJ}}{du} cdot frac{{du}}{db}),理由是,如果你改变 (b) 一点点,所以 (b) 变化比如说 3.001,它影响 (J) 的方式是,首先会影响 (u),它对 (u) 的影响有多大?好,(u) 的定义是 (b cdot c),所以 (b=3) 时这是 6,现在就变成 6.002 了,对吧,因为在我们的例子中 (c=2),所以这告诉我们 (frac{{du}}{db} = 2),当你让 (b) 增加 0.001 时,(u) 就增加两倍。所以 (frac{{du}}{db} = 2),现在我想 (u) 的增加量已经是 (b) 的两倍,那么 (frac{{dJ}}{du}) 是多少呢?我们已经弄清楚了,这等于 3,所以让这两部分相乘,我们发现 (frac{{dJ}}{db} = 6)

    好,这就是第二部分的推导,其中我们想知道 (u) 增加 0.002,会对 (J) 有什么影响。实际上 (frac{{dJ}}{du} = 3),这告诉我们 (u) 增加 0.002 之后,(J) 上升了 3 倍,那么 (J) 应该上升 0.006,对吧。这可以从 (frac{{dJ}}{du} = 3) 推导出来。

    如果你仔细看看这些数学内容,你会发现,如果 (b) 变成 3.001,那么 (u) 就变成 6.002,(v) 变成 11.002,然后 (J = 3v = 33.006),对吧?这就是如何得到 (frac{{dJ}}{db} = 6)

    如果我们反向走的话,db = 6,而 db 其实是 Python 代码中的变量名,表示 (frac{{dJ}}{db})

    我不会详细地介绍最后一个例子,但事实上,如果你计算 (frac{{dJ}}{dc} = frac{{dJ}}{du} cdot frac{{du}}{dc} = 3 imes 3),这个结果是 9,所以在最后一步,我们可以推出 dc = 9。

    所以这节课的要点是,当计算所有这些导数时,最有效率的办法是从右到左计算,跟着这个红色箭头走。特别是当我们第一次计算对 (v) 的导数时,之后在计算对 (a) 导数就可以用到。然后对 (u) 的导数,可以帮助计算对 (b) 的导数,以及对 (c) 的导数。

    所以这是一个计算流程图,就是正向或者说从左到右的计算来计算成本函数 (J),你可能需要优化的函数,然后反向从右到左计算导数。如果你不熟悉 微积分多元复合函数的链式求导法则,我知道这里有些细节讲的很快,但如果你没有跟上所有细节,也不用怕。在下节课中,我会再过一遍。在逻辑回归的背景下过一遍,并给你介绍需要做什么才能编写代码,实现逻辑回归模型中的导数计算。

    逻辑回归的梯度下降(Logistic Regression Gradient Descent)

    本节我们讨论怎样通过计算偏导数来实现逻辑回归的梯度下降算法。它的关键点是几个重要公式,其作用是用来实现逻辑回归中梯度下降算法。但是在本节课中,我将使用计算图对梯度下降算法进行计算。我必须要承认的是,使用计算图来计算逻辑回归的梯度下降算法有点大材小用了。但是,我认为以这个例子作为开始来讲解,可以使你更好的理解背后的思想。从而在讨论神经网络时,你可以更深刻而全面地理解神经网络。接下来让我们开始学习逻辑回归的梯度下降算法。

    假设样本只有两个特征 (x_1)(x_2),为了计算 (z),我们需要输入参数 (w_1)(w_2)(b)。因此 (z) 的计算公式为: (z = w_1 x_1 + w_2 x_2 + b)

    **回想一下逻辑回归的公式定义如下: **

    (hat{y} = a = sigma (z)),其中 (z = w^{ op} x + b)(sigma left( z ight) = frac{1}{1+{{e}^{-z}}})

    损失函数: (mathcal{L}(hat{y}^{(i)}, y^{(i)}) = - y^{(i)} log hat{y}^{(i)} - (1 - y^{(i)}) log (1 - hat{y}^{(i)}))

    代价函数: (J left( w,b ight) = frac{1}{m} sumlimits_{i}^{m} mathcal{L} (hat{y}^{(i)}, y^{(i)}))

    假设现在只考虑单个样本的情况,单个样本的代价函数定义如下: (mathcal{L}(a,y) = - left[ y log (a) + (1-y) log (1-a) ight]),其中 (a) 是逻辑回归的输出,(y) 是样本的标签值。现在让我们画出表示这个计算的计算图。

    这里先复习下梯度下降法,(w)(b) 的修正量可以表达如下:

    (w: = w- alpha frac{partial J(w,b)}{partial w})

    (b := b - alpha frac{partial J(w,b)}{partial b})

    如图:在这个公式的外侧画上长方形。然后计算: (hat{y} = a = sigma(z)) 也就是计算图的下一步。最后计算损失函数 (mathcal{L}(a, y))。 有了计算图,我就不需要再写出公式了。因此,为了使得逻辑回归中最小化代价函数 (mathcal{L}(a, y)),我们需要做的仅仅是修改参数 (w)(b) 的值。前面我们已经讲解了如何在单个训练样本上计算代价函数的前向步骤。现在让我们来讨论通过反向计算出导数。 因为我们想要计算出的代价函数 (mathcal{L}(a, y)) 的导数,首先我们需要反向计算出代价函数 (mathcal{L}(a, y)) 关于 (a) 的导数,在编写代码时,你只需要用 da 来表示 (frac{d mathcal{L}(a, y)}{da}) 。 通过微积分得到: (frac{d mathcal{L}(a,y)}{da} = - frac{y}{a} + frac{1-y}{1-a})。如果你不熟悉微积分,也不必太担心,我们会列出本课程涉及的所有求导公式。那么如果你非常熟悉微积分,我们鼓励你主动推导前面介绍的代价函数的求导公式,使用微积分直接求出 (mathcal{L}(a,y)) 关于变量 (a) 的导数。如果你不太了解微积分,也不用太担心。现在我们已经计算出 da,也就是最终输出结果的导数。 现在可以再反向一步,在编写 Python 代码时,你只需要用 dz 来表示代价函数 (L) 关于 (z) 的导数 (frac{d mathcal{L}}{dz}),也可以写成 (frac{dL(a,y)}{dz}),这两种写法都是正确的。 (frac{d mathcal{L}}{dz} = a-y) 。 因为 (frac{d mathcal{L}(a,y)}{dz} = frac{d mathcal{L}}{dz} = frac{d mathcal{L}}{da} cdot frac{da}{dz}), 并且 (frac{da}{dz} = a cdot (1-a)), 而 (frac{d mathcal{L}}{da} = -frac{y}{a} + frac{(1-y)}{(1-a)}),因此将这两项相乘,得到:

    dz = (frac{d mathcal{L} (a,y)}{dz} = frac{d mathcal{L}}{dz} = frac{d mathcal{L}}{da} cdot frac{da}{dz} = left( - frac{y}{a} + frac{(1 - y)}{(1 - a)} ight) cdot a (1 - a) = a - y)

    现在进行最后一步反向推导,也就是计算 (w)(b) 变化对代价函数 (mathcal{L}) 的影响,特别地,可以用:

    (dw_1 = frac{1}{m}sumlimits_{i}^{m}{x_{1}^{(i)}}({{a}^{(i)}}-{{y}^{(i)}}))

    (dw_2=frac{1}{m}sumlimits_{i}^{m}{x_{2}^{(i)}}({{a}^{(i)}}-{{y}^{(i)}}))

    (db=frac{1}{m}sumlimits_{i}^{m}{({{a}^{(i)}}-{{y}^{(i)}})})

    本节课中, (dw_1) 表示 (frac{partial mathcal{L}}{partial w_1} = x_1 cdot dz)(dw_2) 表示 (frac{partial mathcal{L}}{partial w_2} = x_2 cdot dz), db = dz。 因此,关于单个样本的梯度下降算法,你所需要做的就是如下的事情: 使用公式 dz = (a - y) 计算 (dz), 使用 (dw_1 = x_1 cdot dz) 计算 (dw_1)(dw_2 = x_2 cdot dz) 计算 (dw_2), db = dz 来计算 db, 然后: 更新 (w_1 = w_1 - alpha dw_1), 更新 (w_2 = w_2 - alpha dw_2), 更新 (b = b - alpha db)。 这就是关于单个样本实例的梯度下降算法中参数更新一次的步骤。

    现在你已经知道了怎样计算导数,并且实现针对单个训练样本的逻辑回归的梯度下降算法。但是,训练逻辑回归模型不仅仅只有一个训练样本,而是有 (m) 个训练样本的整个训练集。因此在下节课中,我们将这些思想应用到整个训练样本集中,而不仅仅只是单个样本上。

    m 个样本的梯度下降(Gradient Descent on m Examples)

    在之前的课程中,你已经看到如何计算导数,以及应用梯度下降在逻辑回归的一个训练样本上。现在我们想要把它应用在 (m) 个训练样本上。

    首先,让我们时刻记住有关于损失函数 (J(w,b)) 的定义。

    (J(w, b) = frac{1}{m} sumlimits_{i=1}^{m} mathcal{L} left( a^{(i)}, y^{(i)} ight))

    当你的算法输出关于样本 (y)(a^{(i)})(a^{(i)}) 是训练样本的预测值 (hat{y}^{(i)}),即:(a^{(i)}=hat{y}^{(i)}=sigma(z^{(i)})=sigma(w^{ op}x^{(i)}+b))。 所以我们在前面的幻灯中展示的是对于任意单个训练样本,也就是当你只有一个训练样本如何计算导数。因此 (dw_1)(dw_2)(db) 添上上标 (i) 表示你求得的相应的值。如果你面对的是我们在之前的幻灯中演示的那种情况,但只使用了一个训练样本 ((x^{(i)}, y^{(i)}))。 现在你知道带有求和的全局代价函数,实际上是 1 到 (m) 项各个损失的平均。 所以它表明全局代价函数对 (w_1) 的导数,也同样是各项损失对 (w_1) 导数的平均。

    但之前我们已经演示了如何计算这项 (frac{partial}{partial w_1}; mathcal{L}(a^{(i)},y^{(i)})),即之前幻灯中演示的如何对单个训练样本进行计算。所以你真正需要做的是计算这些导数 (dw_1^{(i)}),如我们在之前的训练样本上做的。并且求平均,这会给你全局梯度值,你能够把它直接应用到梯度下降算法中。

    所以这里有很多细节,但让我们把这些装进一个具体的算法。同时你需要一起应用的就是逻辑回归和梯度下降。

    下图中的代码只应用了一步梯度下降。因此你需要重复以上内容很多次,以应用多次梯度下降。看起来这些细节似乎很复杂,但目前不要担心太多。希望你明白,当你继续尝试并应用这些在编程作业里,所有这些会变的更加清楚。

    但这种计算中有两个缺点,也就是说应用此方法在逻辑回归上你需要编写两个 for 循环。第一个 for 循环是一个小循环遍历 (m) 个训练样本,第二个 for 循环是一个遍历所有特征的 for 循环。这个例子中我们只有 2 个特征,所以 (n) 等于 2 并且 (n_x) 等于 2。 但如果你有更多特征,你开始编写你的因此 (dw_1)(dw_2),你有相似的计算从 (dw_3) 一直下去到 (dw_n)。所以看来你需要一个 for 循环遍历所有 (n) 个特征。

    当你应用深度学习算法,你会发现在代码中显式地使用 for 循环使你的算法很低效,同时在深度学习领域会有越来越大的数据集。所以能够应用你的算法且没有显式的 for 循环会是重要的,并且会帮助你适用于更大的数据集。所以这里有一些叫做向量化技术,它可以允许你的代码摆脱这些显式的 for 循环。

    我想在先于深度学习的时代,也就是深度学习兴起之前,向量化是很棒的。可以使你有时候加速你的运算,但有时候也未必能够。但是在深度学习时代向量化,摆脱 for 循环已经变得相当重要。因为我们越来越多地训练非常大的数据集,因此你真的需要你的代码变得非常高效。所以在接下来的几节课中,我们会谈到向量化,以及如何应用向量化而连一个 for 循环都不使用。所以学习了这些,我希望你有关于如何应用逻辑回归,或是用于逻辑回归的梯度下降,事情会变得更加清晰。当你进行编程练习,但在真正做编程练习之前让我们先谈谈向量化。然后你可以应用全部这些东西,应用一个梯度下降的迭代而不使用任何 for 循环。

    向量化(Vectorization)

    向量化是非常基础的去除代码中 for 循环的艺术,在深度学习安全领域、深度学习实践中,你会经常发现自己训练大数据集,因为深度学习算法处理大数据集效果很棒,所以你的代码运行速度非常重要,否则如果在大数据集上,你的代码可能花费很长时间去运行,你将要等待非常长的时间去得到结果。所以在深度学习领域,运行向量化是一个关键的技巧,让我们举个栗子说明什么是向量化。

    在逻辑回归中你需要去计算 (z=w^{ op}x+b)(w)(x) 都是列向量。如果你有很多的特征那么就会有一个非常大的向量,所以 (w in mathbb{R}^{n_x}) , (x in mathbb{R}^{n_x}),所以如果你想使用非向量化方法去计算 (w^{ op}x),你需要用如下方式(Python)

    z=0
    for i in range(n_x):
        z += w[i] * x[i]
    z += b
    

    这是一个非向量化的实现,你会发现这真的很慢,作为一个对比,向量化实现将会非常直接的计算 (w^{ op}x),你将会发现这个非常快,代码如下:

    z = np.dot(w.T, x) + b
    

    为了对比下效率,让我们用一个小例子说明一下,我将会在 Jupyter notebook 上写一些 Python 代码:

    import numpy as np #导入 numpy 库
    a = np.array([1,2,3,4]) # 创建一个数据 a
    print(a) # output : [1 2 3 4]
    
    import time # 导入时间库
    a = np.random.rand(1000000)
    b = np.random.rand(1000000) # 通过 round 随机得到两个一百万维度的数组
    tic = time.time() # 现在测量一下当前时间
    
    # 向量化的版本
    c = np.dot(a,b)
    toc = time.time()
    print("Vectorized version:" + str(1000*(toc-tic)) +"ms") # 打印一下向量化的版本的时间
    ​
    # for 循环(非向量化)的版本
    c = 0
    tic = time.time()
    for i in range(1000000):
        c += a[i] * b[i]
    toc = time.time()
    print(c)
    print("For loop:" + str(1000 * (toc - tic)) + "ms") # 打印 for 循环的版本的时间
    

    结果:

    250286.989866
    Vectorized version : 1.5027523040771484 ms
    
    250286.989866
    For loop : 474.29513931274414 ms
    

    在两个方法中,向量化和非向量化计算了相同的值,如你所见,向量化版本花费了 1.5 毫秒,非向量化版本的 for 循环花费了大约几乎 500 毫秒,非向量化版本多花费了 300 倍时间。所以在这个例子中,仅仅是向量化你的代码,运行就会快 300 倍。这意味着如果向量化方法需要花费一分钟去运行的数据,for 循环将会花费 5 个小时去运行。

    你可能听过很多类似如下的话,"大规模的深度学习使用了 GPU 或者图像处理单元实现",但是我做的所有的案例都是在 jupyter notebook 上面实现,这里只有 CPUCPUGPU 都有并行化的指令,他们有时候会叫做 SIMD 指令,这个代表了一个单独指令多维数据,这个的基础意义是,如果你使用了 built-in 函数,像 np.function 或者并不要求你实现循环的函数,它可以让 Python 的充分利用并行化计算,实际是在 GPUCPU 上面计算,GPU 更加擅长 SIMD 计算,但 CPU 其实也不是太差,可能没有 GPU 那么擅长吧。

    接下来的课程,你将看到向量化是如何加速你的代码的,经验法则是,无论什么时候,避免使用明确的 for 循环。

    更多的向量化例子(More Examples of Vectorization)

    上节课中,你知道了怎样通过 numpy 内置函数和避开显式的循环(loop)的方式进行向量化,从而有效提高代码速度。经验提醒我,当我们在写神经网络程序时,或者在写逻辑(logistic)回归,或者其他神经网络模型时,应该避免写循环(loop)语句。虽然有时写循环(loop)是不可避免的,但是我们可以使用比如 numpy 的内置函数或者其他办法去计算。当你这样使用后,程序效率总是快于循环(loop)。

    让我们看另外一个例子。如果你想计算向量 (u = Av),这时矩阵乘法定义就是:(u_{i} = sumlimits_{i}^{} sumlimits_{j}^{} A_{ij} v_{j})。然后如果你使用非向量化实现,u = np.zeros((n,1)), 并且通过两层循环 for(i)for(j),得到 u[i] += A[i][j] * v[j]。而使用向量化实现就可以用图中右侧的方式: u = np.dot(A, v),消除了两层循环使得代码运行速度更快。

    下面通过另一个例子继续了解向量化。如果你已经有一个向量 (v),并且想要对向量 (v) 的每个元素做指数操作,得到向量 (u) 等于 (e)(v_1)(e)(v_2),一直到 (e)(v_n) 次方。这里是非向量化的实现方式,首先你初始化了向量 (u),并且通过循环依次计算每个元素。但事实证明可以通过 Python 的 numpy 内置函数,帮助你计算这样的单个函数。所以我会引入 import numpy as np,执行 u = np.exp(v) 命令。注意到,对比之前有循环的代码中,这里仅用了一行代码,向量 (v) 作为输入,(u) 作为输出。你已经知道为什么需要向量化,并且通过右边代码实现,效率会明显的快于循环方式。

    事实上,numpy 库有很多向量函数。比如:

    u = np.log`      # 计算对数函数 log
    np.abs()         # 计算数据的绝对值
    np.maximum(v, 0) # 按元素计算 v 中每个元素和 0 相比的最大值
    v**2             # 获得元素 v 每个值的平方
    1 / v            # 获取 v 中每个元素的倒数
    
    # etc.
    

    所以当你想写循环时候,检查 numpy 是否存在类似的内置函数,从而避免使用循环 (loop)方式。

    接下来,将刚才所学到的内容,运用在逻辑回归的梯度下降上,看看我们是否能简化两个计算过程中的某一步。下图是我们逻辑回归的求导代码,其中一个循环 (for i )用来遍历 m 个样本,当时的例子中只有两个特征值,所以计算 (dw_1)(dw_2) 时只用了两行代码分别计算。但是假如我们有 (n) 个特征值的时候,比如你有超过两个特征时,对于非向量化实现来说,你需要再添加一个 for j 循环来计算 (dw_1)(dw_2)(dw_3) 等等。其中 (j) 的实际值就是特征的个数,即: 1、2 ... (n_x)。所以,当我们有 (n) 个特征值并且还想要消除这第二 for j 循环的情况下,可以使用向量的实现方式。具体可以这样做,不分别初始化 (dw_1)(dw_2) 都等于 0。去掉这些,而是定义 dw 为一个向量,设置 dw = np.zeros((n(x),1))。如此就定义了一个 (n_x) 行的一维向量,从而替代循环。我们仅仅使用了一个向量操作 (dw += x^{(i)} dz^{(i)}) 。最后,我们得到 dw = dw / m。

    希望这节课给了你一点向量化感觉,减少一层循环使你代码更快。但事实证明我们能做得更好,因为目前为止,我们通过将两层循环转成一层循环,仍然还有一个循环用来遍历训练样本。所以在下节课,我们将进一步的讲解逻辑回归,将这个遍历训练样本的 for i 循环也去掉。

    向量化逻辑回归(Vectorizing Logistic Regression)

    我们已经讨论过向量化是如何显著加速你的代码,在本节课中我们将讨论如何实现逻辑回归的向量化计算。这样就能处理整个数据集,甚至不会用一个明确的 for 循环就能实现对于整个数据集梯度下降算法的优化。我对这项技术感到非常激动,并且当我们后面谈到神经网络时同样也不会用到一个明确的 for 循环。

    让我们开始吧,首先我们回顾一下逻辑回归的前向传播步骤。所以,如果你有 (m) 个训练样本,然后对第一个样本进行预测,你需要这样计算。我正在使用这个熟悉的公式来计算 (z)(z^{(1)} = w^{ op}x^{(1)} + b),然后计算激活函数 (a^{(1)} = sigma (z^{(1)})) ,计算出第一个样本的预测值 (hat{y}^{(1)})

    然后对第二个样本进行预测,你需要计算 (z^{(2)} = w^{ op} x^{(2)} + b)(a^{(2)} = sigma (z^{(2)})) 。然后对第三个样本进行预测,你需要计算 (z^{(3)} = w^{ op} x^{(3)} + b)(a^{(3)} = sigma (z^{(3)})),依次类推。如果你有 (m) 个训练样本,你可能需要这样做 (m) 次,可以看出,为了完成前向传播步骤,即对我们的 (m) 个样本都计算出预测值。有一个办法可以,并且它不需要任何一个明确的 for 循环。让我们来看一下你该怎样做。

    首先,回忆一下我们曾经定义了一个矩阵 (X) 作为你的训练输入,(如图中蓝色 (X))像这样在不同的列中堆积在一起。这是一个 (n_x)(m) 列的矩阵。我现在将它写为 Python numpy 的形式 ((n_x, m)) ,这只是表示 (X) 是一个 (n_x) 乘以 (m) 维的矩阵,(X in mathbb{R}^{n_x imes m})

    现在我首先想做的是告诉你该如何在一个步骤中计算 (z^{(1)})(z^{(2)})(z^{(3)}) 等等。实际上,只用了一行代码。所以,我打算先构建一个 (1 imes m) 的矩阵 (Z) 用来装下所有的 (z^{(1)})(z^{(2)}) ... (z^{(m)}),它实际上是一个行向量。我准备同时计算 (z^{(1)})(z^{(2)}) ... (z^{(m)}),所有值都是在同一时间内完成。使用向量化的实现可以表达为 (w) 的转置乘以大写矩阵 (X) 然后加上偏置向量 ([b, b, ..., b]),它是一个 (1 imes m) 的向量或者说 (1 imes m) 的矩阵或者是一个 (m) 维的行向量。如果你熟悉矩阵乘法,你会发现 (w) 的转置可以是一个行向量,且 (w^{ op}X) 的第一项将计算 (w) 的转置乘以 (x^{(1)}), 第二项将计算 (w) 的转置乘以 (x^{(2)}),等等,以此类推,一直到第 (m)(w) 的转置乘以 (x^{(m)})。然后我们再将偏置向量 ([b, b, ..., b]) 相加到对应的每个元素上。最终你得到了这个 (1 imes m) 的向量 (Z)

    (Z = [z^{(1)}, z^{(2)}, ..., z^{(m)}] = w^{ op}X + [b, b, ..., b] = [w^{ op}x^{(1)} + b, ;; w^{ op}x^{(2)} + b, ;; ..., ;; w^{ op}x^{(m)} + b])

    如果你参照上面的定义,第一个元素恰好是 (z^{(1)}) 的定义,第二个元素恰好是 (z^{(2)}) 的定义,等等。为了计算 (Z),Numpy 命令是 Z = np.dot(w.T,X) + b。这里在 Python 中有一个巧妙的地方,这里 (b) 是一个实数,或者你可以说是一个 (1 imes 1) 矩阵,但是当你将这个 (1 imes m) 的向量 (w^{ op}X) 加上这个实数 (b) 时,Python 会自动把这个实数 (b) 扩展成一个 (1 imes m) 的行向量。所以这种情况下的操作似乎有点不可思议,它在 Python 中被称作广播(brosdcasting),目前你不用对此感到顾虑,我们将在节下来的课程中做进一步讲解。话说回来它只用一行代码,用这一行代码,你可以计算大写的 (Z),而大写 (Z) 是一个包含所有小写 (z^{(1)}) 到 $ z^{(m)}$ 的 (1 imes m) 的矩阵。这就是 (Z) 的内容,关于变量 (a) 又是如何呢?

    我们接下来要做的就是找到一个同时计算 ([a^{(1)}, a^{(2)}, ..., a^{(m)}]) 的方法。就像把小写 (x) 堆积起来得到大写 (X) 和横向堆积小写 (z) 得到大写 (Z) 一样,堆积小写变量 (a) 将形成一个新的变量,我们将它定义为大写 (A)。在编程作业中,你将看到怎样用一个向量在 sigmoid 函数中进行计算。所以 sigmoid 函数中输入大写 (Z) 作为变量并且非常高效地输出大写 (A)。你将在编程作业中看到它的细节。

    总结一下,在这张幻灯片中我们已经看到,不需要 for 循环,利用 (m) 个训练样本一次性计算出小写 (z) 和小写 (a),都只用一行代码即可完成。

    Z = np.dot(w.T, X) + b
    A = sigma(Z) # 我们会在编程作业中编写一个计算 sigmoid 的函数 sigma()
    

    这就是在同一时间内你如何完成一个所有 (m) 个训练样本的前向传播向量化计算。同样的,你也可以利用向量化高效地计算反向传播并以此来计算梯度。让我们在下节课中看该如何实现。

    向量化逻辑回归的梯度计算(Vectorizing Logistic Regression's Gradient)

    如何向量化计算的同时,对整个训练集预测结果 (a),这是我们上节课已经讨论过的内容。在本节课中我们将学习如何向量化地计算 (m) 个训练数据的梯度,本节课的重点是如何同时计算 (m) 个数据的梯度,并且实现一个非常高效的逻辑回归算法 (Logistic Regression)。

    在之前的实现中,我们已经去掉了一个 for 循环,但我们仍有一个遍历训练集的循环,让我们回顾一下,看看我们之前怎么实现的逻辑回归,如下图所示:

    可以看到上述计算方法中,虽然已经去掉了一个 for 循环,但 (dz), (dw), (db) 仍然需要一个循环遍历训练集,我们现在要做的就是将它们向量化。

    向量化 (dz)

    之前我们在讲梯度计算的时候,列举过几个例子, (dz^{(1)} = a^{(1)}-y^{(1)})(dz^{(2)} = a^{(2)} - y^{(2)}) 等等一系列类似公式。现在,对 (m) 个训练数据做同样的运算,我们可以定义一个新的变量 (dZ = [dz^{(1)}, dz^{(2)}, ..., dz^{(m)}]) ,所有的 (dz) 变量横向排列,因此,(dZ) 是一个 (1 imes m) 的矩阵,或者说,一个 (m) 维行向量。在之前的幻灯片中,我们已经知道如何计算 (A),即 ([a^{(1)}, a^{(2)}, ..., a^{(m)}]),我们需要找到这样的一个行向量 (Y = [y^{(1)}, y^{(2)}, ..., y^{(m)}]) ,由此,我们可以这样计算 (dZ = A - Y = [a^{(1)} - y^{(1)}, a^{(2)} - y^{(2)}, ..., a^{(m)} - y^{(m)}]),不难发现第一个元素就是 (dz^{(1)}),第二个元素就是 (dz^{(2)}) 等等。所以我们现在仅需一行代码 dZ = A - Y,就可以同时完成这所有的计算。

    向量化 (db)

    我们再来看 (db),不难发现 (db = frac{1}{m}sumlimits_{i=1}^{m}dz^{(i)}),之前的讲解中,我们知道所有的 (dz^{(i)}) 已经组成一个行向量 dZ 了,所以在 Python 中,我们很容易地想到 db = np.sum(dZ) / m。

    向量化 (dw)

    接下来看 (dw),我们先写出它的公式 (dw = frac{1}{m} X dz^{ op})。其中,(X) 是一个行向量。将 dw 展开后就是 (dw = frac{1}{m}left(x^{(1)}dz^{(1)} + x^{(2)}dz^{(2)} + ... + x^{m}dz^{m} ight))。我们可以用这行代码计算:dw = X * dZ.T / m。

    经过上面的向量化实现,我们就避免了在训练集上使用 for 循环。下面汇总下 Python 的实现代码:

    for iter in range(epoch):    # 每一次迭代实现一次梯度下降,这个 for 循环无法省略
        Z = np.dot(w.T, X) + b   # shape(1, m)
        A = sigma(Z)             # shape(1, m)
        dZ = A - Y               # shape(1, m)
        dw = X * dZ.T / m        # shape(n, 1)
        db = np.sum(dZ) / m      # shape(1, 1)
        w = w - alpha * dw       # shape(n, 1)
        b = b - alpha * db       # shape(1, 1)
    

    现在我们完成了向量化版本的前向和后向传播(也就是对所有训练样本进行预测和求导),以及梯度下降更新参数。我们的目的是不使用 for 循环,所以我们就通过一次迭代实现一次梯度下降,但如果你希望多次迭代进行梯度下降,那么仍然需要 for 循环,放在最外层。

    最后,我们得到了一个高度向量化的、非常高效的逻辑回归的梯度下降算法,我们将在下节课中讨论 Python 中的 Broadcasting 技术。

    Python 中的广播机制(Broadcasting in Python)

    下图一个不同食物(每 100g)中不同营养成分的卡路里含量表格,表格为 3 行 4 列,列表示不同的食物种类,从左至右依次为苹果,牛肉,鸡蛋,土豆。行表示不同的营养成分,从上到下依次为碳水化合物,蛋白质,脂肪。

    那么,我们现在想要计算不同食物中不同营养成分中的卡路里百分比。

    现在计算苹果中的碳水化合物卡路里百分比含量,首先计算苹果(100g)中三种营养成分卡路里总和 56 + 1.2 + 1.8 = 59,然后用 56 / 59 = 94.9% 算出结果。

    可以看出苹果中的卡路里大部分来自于碳水化合物,而牛肉则不同。对于其他食物,计算方法类似。首先,按列求和,计算每种食物中(100g)三种营养成分总和,然后分别用不用营养成分的卡路里数量除以总和,计算百分比。

    那么,能否不使用 for 循环完成这样的一个计算过程呢?

    假设上图的表格是一个 3 行4 列的矩阵 (A),记为 (A_{3 imes 4}),接下来我们要使用 Python 的 numpy 库完成这样的计算。我们打算使用两行代码完成,第一行代码对每一列进行求和,第二行代码分别计算每种食物每种营养成分的百分比。

    在 jupyter notebook 中输入如下代码,运行后,输出如下:

    # 导入 numpy 库
    In [1]: import numpy as np
    
    # 将表格中的数据装入矩阵 A
    In [2]: A = np.array([[56.0,0.0,4.4,68.0],
       ...:               [1.2,104.0,52.0,8.0],
       ...:               [1.8,135.0,99.0,0.9]])
    
    [[ 56.    0.    4.4  68. ]
     [  1.2 104.   52.    8. ]
     [  1.8 135.   99.    0.9]]
    
    # 计算每列的和,可以看到输出是每种食物(100g)的卡路里总和
    # sum 的参数 axis=0 表示求和运算按列(垂直)执行
    # sum 的参数 axis=1 表示求和运算按行(水平)执行
    In [3]: cal = A.sum(axis=0)
    
    [ 59.  239.  155.4  76.9]
    
    # 计算百分比
    # 这条指令将 3 x 4 的矩阵 A 除以一个 1 x 4 的矩阵,得到了一个 3 x 4 的结果矩阵
    # 这个结果矩阵就是我们要求的百分比含量
    In [4]: percentage = 100 * A / cal.reshape(1, 4)
    
    [[94.91525424  0.          2.83140283 88.42652796]
     [ 2.03389831 43.51464435 33.46203346 10.40312094]
     [ 3.05084746 56.48535565 63.70656371  1.17035111]]
    

    上面的代码中 A / cal.reshape(1,4) 指令调用了 numpy 中的广播机制。这里使用 (3 imes 4) 的矩阵 (A) 除以 (1 imes 4) 的矩阵 cal。技术上来讲,其实并不需要再将矩阵 cal reshape(重塑) 成 (1 imes 4),因为矩阵 cal 本身已经是 (1 imes 4) 了。但是当我们写代码时不确定矩阵维度的时候,通常会对矩阵进行重塑来确保得到我们想要的列向量或行向量。重塑操作 reshape 是一个常量时间的操作,时间复杂度是 (mathcal{O}(1)),它的调用代价极低。

    那么一个 (3 imes 4) 的矩阵是怎么和 (1 imes 4) 的矩阵做除法的呢?让我们来看一些更多的广播的例子,其中包括了一般原则(General Principle),即,课程讲解的是 + 的例子,其实 [+, -, *, /] 的情况都一样。

    *下图中例 1,(m, 1) [+, -, , /] (mathbb{R}) = (m, 1)

    在 numpy 中,当一个 (4 imes 1) 的列向量与一个常数做加法时,实际上会将常数扩展为一个 (4 imes 1) 的列向量,然后两者做逐元素加法。结果就是右边的这个向量。这种广播机制对于行向量和列向量均可以使用。

    *下图中例 2,(m, n) [+, -, , /] (1, n) = (m, n)

    用一个 (2 imes 3) 的矩阵和一个 (1 imes 3) 的矩阵相加,其泛化形式是 (m imes n) 的矩阵和 (1 imes n) 的矩阵相加。在执行加法操作时,其实是将 (1 imes n) 的矩阵复制成为 (m imes n) 的矩阵,然后两者做逐元素加法得到结果。针对这个具体例子,相当于在矩阵的第一列加 100,第二列加 200,第三列加 300。这就是在前一张幻灯片中计算卡路里百分比的广播机制,只不过这里是除法操作(广播机制与执行的运算种类无关)。

    *下图中例 3,(m, n) [+, -, , /] (m, 1) = (m, n)

    这里相当于是一个 (m imes n) 的矩阵加上一个 (m imes 1) 的矩阵。在进行运算时,会先将 (m imes 1) 矩阵水平复制 (n) 次,变成一个 (m imes n) 的矩阵,然后再执行逐元素加法。

    最后,对于 Matlab / Octave 有类似 Python 这种广播功能的函数 bsxfun。

    总结一下 broadcasting,还可以看看下面的两张图:

    关于 Python 与 numpy 向量的使用(A note on python or numpy vectors)

    Python 的特性允许你使用广播(broadcasting)功能,这是 Python 的 numpy 程序语言库中最灵活的地方。而我认为这是程序语言的优点,也是缺点。优点的原因在于它们创造出语言的表达性,Python 语言巨大的灵活性使得你仅仅通过一行代码就能做很多事情。但是这也是缺点,由于广播巨大的灵活性,有时候你对于广播的特点以及广播的工作原理这些细节不熟悉的话,你可能会产生很细微或者看起来很奇怪的 bug。例如,如果你将一个列向量添加到一个行向量中,你会以为它报出维度不匹配或类型错误之类的错误,但是实际上你会得到一个行向量和列向量的求和。

    在 Python 的这些奇怪的影响之中,其实是有一个内在的逻辑关系的。但是如果对 Python 不熟悉的话,我就曾经见过的一些学生非常生硬、非常艰难地去寻找 bug。所以我在这里想做的就是分享给你们一些技巧,这些技巧对我非常有用,它们能消除或者简化我的代码中所有看起来很奇怪的 bug。同时我也希望通过这些技巧,你也能更容易地写没有 bug 的 Python 和 numpy 代码。

    为了演示 Python-numpy 的一个容易被忽略的效果,特别是怎样在 Python-numpy 中构造向量,让我来做一个快速示范:

    # 导入 numpy 库
    In [1]: import numpy as np
    
    # 生成存储在数组 a 中的 5 个高斯随机数变量
    In [2]: a = np.random.randn(5)
    Out[2]: array([-1.75815016, -1.07273969,  0.09507771, -0.92821468, -0.51926189])
    
    '''
    变量 a 的 shape 是一个 (5,) 的结构,这在 Python 中被称作一个秩为 1 的数组(a rank 1 array),它既不是一个行向量也不是一个列向量,这也导致它有一些不是很直观的效果。
    '''
    # 输出变量 a 的 shape(形状)
    In [3]: a.shape
    Out[3]: (5,)
    
    '''
    举个例子,如果我输出一个转置阵,最终结果它会和 a 看起来一样,所以 a 和 a 的转置阵最终结果看起来一样。
    '''
    # 输出 a 的转置阵(结果还是和原来一样)
    In [4]: a.T
    Out[4]: array([-1.75815016, -1.07273969,  0.09507771, -0.92821468, -0.51926189])
    
    '''
    而如果我输出 a 和 a 的转置阵的内积,你可能会想:a 乘以 a 的转置返回给你的可能会是一个矩阵。但是如果我这样做,你只会得到一个数。
    '''
    # 输出 a 和 a 的转置阵的内积
    In [5]: np.dot(a, a.T)
    Out[5]: 5.382117583277082
    
    '''
    所以建议你编写神经网络时,不要使用 shape 为 (5,)、(n,) 的这种秩为 1 的数组,它们经常会导致 bug 的出现。相反,如果你使用 numpy 的 reshape 函数显性的设置 a 的 shape 为 (5,1),那么这就是真正的 5 行 1 列向量。
    '''
    # 设置变量 a 的形状为 (5,1)
    In [6]: a.reshape(5,1)
    Out[6]:
    array([[-1.75815016],
           [-1.07273969],
           [ 0.09507771],
           [-0.92821468],
           [-0.51926189]])
    
    '''
    在先前的操作里 a 和 a 的转置看起来一样,而现在这样的 a 变成一个新的 a 的转置,并且它是一个行向量。请注意一个细微的差别,在这种数据结构中,当我们输出 a 的转置时有两对方括号,而之前只有一对方括号,所以这就是 1 行 5 列的矩阵和一维数组的差别。
    '''
    # 设置变量 a 的转置阵
    In [7]: a.T
    Out[7]: array([[-1.75815016, -1.07273969,  0.09507771, -0.92821468, -0.51926189]])
    
    '''
    之前,如果你输出 a 和 a 的转置的内积,会返回给你一个数,对吧?但是现在这两个向量的内积会返回给你一个矩阵。
    '''
    # 输出 a 和 a 的转置阵的内积
    In [8]: np.dot(a, a.T)
    Out[8]:
    array([[ 3.09109199,  1.88603746, -0.16716089,  1.63194079,  0.91294037],
           [ 1.88603746,  1.15077044, -0.10199363,  0.99573273,  0.55703284],
           [-0.16716089, -0.10199363,  0.00903977, -0.08825253, -0.04937023],
           [ 1.63194079,  0.99573273, -0.08825253,  0.86158249,  0.48198651],
           [ 0.91294037,  0.55703284, -0.04937023,  0.48198651,  0.26963291]])
    
    '''
    对于之前运行过的命令 a = np.random.randn(5) 来说,它生成了一个数据结构 a,并且 a.shape 是 (5,)。这被称作 a 的秩为 1 的数组,同时这也是一个非常有趣的数据结构。它不像行向量和列向量那样表现的很一致,这使得它带来一些不直观的影响。所以我建议,当你在编程练习或者在执行逻辑回归和神经网络时,不要使用这种秩为 1 的数组。相反,如果你每次创建一个数组,你都得让它成为一个列向量,例如使用代码 np.random.randn(5, 1),它将产生一个 (5,1) 的列向量或者使用 np.random.randn(1, 5),它将为你产生一个 (1,5) 的行向量,这样的向量可能会更容易被理解。所以在这种情况下,a.shape 等于 (5,1),样子很像 (5,),但它实际上却是一个列向量。同时这也是为什么当它是一个列向量的时候,你能认为这是矩阵 (5,1)。
    '''
    # 将高斯随机数变量直接初始化成向量
    In [9]: np.random.randn(5, 1).shape
    Out[9]: (5, 1)
    
    # 对比下秩为 1 的数组的情况
    In [10]: np.random.randn(5).shape
    Out[10]: (5,)
    
    '''
    我写代码时还有一件经常做的事,那就是如果我不完全确定一个向量的维度(dimension),我经常会扔进一个断言语句(assertion statement)去确保在这种情况下是一个 (5,1) 列向量。这些断言语句实际上是要去执行的,并且它们也会有助于为你的代码提供信息。所以不论你要做什么,不要犹豫直接插入断言语句。如果你不小心以秩为 1 的数组来执行,你也能够使用 reshape 重新改变数组维数,使它变成一个 (5,1) 数组或者一个 (1,5) 数组,以致于它表现更像列向量或行向量。
    '''
    # 断言正确
    In [11]: assert(a.shape == (5, 1))
    
    # 断言错误
    In [12]: assert(a.shape == (1, 5))
    ---------------------------------------------------------------------------
    AssertionError                            Traceback (most recent call last)
    <ipython-input-11-037c48ad2a2c> in <module>
    ----> 1 assert(a.shape == (1, 5))
    
    AssertionError:
    

    我有时候看见学生因为一维数组不直观的影响,难以定位 bug 而告终。通过在原先的代码里清除一维数组,我的代码变得更加简洁。而且实际上就我在代码中表现的事情而言,我从来不使用秩为 1 的数组。因此,要去优化你的代码,使用 (n imes 1) 维矩阵(基本上是列向量),或者 (1 imes n) 维矩阵(基本上是行向量),这样你可以减少很多 assert 语句来节省核对矩阵和数组的维数的时间。另外,为了确保你的矩阵或向量所需要的维数时,不要羞于 reshape 操作。

    总之,我希望这些建议能帮助你解决一个 Python 中的 bug,从而使你更容易地完成练习。

    Jupyter / iPython Notebooks快速入门(Quick tour of Jupyter/iPython Notebooks)

    逻辑回归损失函数详解(Explanation of logistic regression cost function)

    在前面的课程中,我们已经分析了逻辑回归的损失函数表达式,在这节选修课程中,我将给出一个简洁的证明来说明逻辑回归的损失函数为什么是这种形式。

    回想一下,在逻辑回归中,需要预测的结果 (hat{y}),可以表示为 (hat{y}=sigma(w^{ op}x+b))(sigma) 是我们熟悉的 (S) 型函数 (sigma(z)=sigma(w^{ op}x+b)=frac{1}{1+e^{-z}})。我们约定 (hat{y}=P(y=1|x)) ,即算法的输出 (hat{y}) 是给定训练样本 (x) 条件下 (y) 等于 1 的概率。换句话说,如果 (y = 1),在给定训练样本 (x) 条件下 (y = hat{y});反过来说,如果 (y = 0),在给定训练样本 (x) 条件下 (y = 1 -hat{y}),因此,如果 (hat{y}) 代表 (y = 1) 的概率,那么 (1 - hat{y}) 就是 (y = 0) 的概率。

    ( ext{if }y = 1: P(y ; | ; x) = hat{y};;;;;; ag{1})
    ( ext{if }y = 0: P(y ; | ; x) = 1 - hat{y} ag{2})

    接下来,我们就来分析这两个条件概率公式。这两个条件概率公式定义形式为 (P(y|x)) 并且代表了 (y=0) 或者 (y=1) 这两种情况,我们可以将这两个公式合并成一个公式。需要指出的是我们讨论的是二分类问题的损失函数,因此,(y) 的取值只能是 0 或者 1。上述的两个条件概率公式可以合并成如下公式:

    (P(y ; | ; x) = hat{y}^y ; (1-hat{y})^{(1-y)} ag{3})

    接下来我会解释为什么可以合并成这种形式的表达式,它包含了上面的两个条件概率公式,我来解释一下为什么。

    第一种情况,假设 (y = 1),由于 (y = 1),那么 (hat{y}^y = hat{y}),因为 (hat{y}) 的 1 次方等于 (hat{y})(1 - (1 - hat{y})^{(1 - y)}) 的指数项 ((1-y)) 等于 0,由于任何数的 0 次方都是 1,(hat{y}) 乘以 1 等于 (hat{y})。因此当 (y = 1)(P(y|x) = hat{y})

    第二种情况,当 (y = 0)(P(y|x)) 等于多少呢? 假设 (y = 0)(hat{y})(y) 次方就是 (hat{y}) 的 0 次方,任何数的 0 次方都等于 1,因此 (P(y|x) = 1 imes (1 - hat{y})^{1 - y}) ,前面假设 (y = 0) 因此 ((1 - y)) 就等于 1,因此 (P(y|x) = 1 imes (1-hat{y}))。因此在这里当 (y = 0) 时,(P(y|x) = 1 - hat{y})

    因此,刚才的推导表明 (P(y|x) = hat{y}^y (1-hat{y})^{(1-y)}),就是 (p(y|x)) 的完整定义。由于 log 函数是严格单调递增的函数,最大化 (log ; P(y|x)) 等价于最大化 (P(y|x)),所以将 (P(y|x)) 带入到 log 函数中,展开并化简可得:

    (mathrm{log} ; P(y ; | ; x) = mathrm{log} ; hat{y}^y ; (1-hat{y})^{(1-y)} = y ; mathrm{log} ; hat{y} + (1 - y) ; mathrm{log} ; (1 - hat{y}) ag{4})

    而这就是我们前面提到的损失函数(loss function)的负数 (-mathcal{L}(hat{y},y)) ,前面有一个负号的原因是当你训练学习算法时需要算法输出值的概率是最大的(以最大的概率预测这个值),然而在逻辑回归中我们需要最小化损失函数。所以,最小化损失函数与最大化条件概率的对数 (log ; P(y|x)) 就这样被关联起来了,因此这就是单个训练样本的损失函数表达式。

    (m) 个训练样本的整个训练集中又该如何表示呢,让我们一起来探讨一下。

    让我们一起来探讨一下,整个训练集中标签的概率,更正式地来写一下。假设所有的训练样本服从同一分布且相互独立,也即独立同分布的,所有这些样本的联合概率就是每个样本概率的乘积:

    (Pleft( ext{labels in training set} ight) = prodlimits_{i = 1}^{m} P(y^{(i)} | x^{(i)}) ag{5})

    如果你想做最大似然估计,需要寻找一组参数,使得给定样本的观测值概率最大,令这个概率 (Pleft( ext{labels in training set} ight)) 最大化等价于令其对数最大化,可以在等式两边取对数:

    (mathrm{log} ; P(mathrm{labels;;in;;training;;set}) = mathrm{log}; prodlimits_{i=1}^{m} P(y^{(i)},x^{(i)})=sumlimits_{i=1}^{m} ; mathrm{log}; P(y^{(i)},x^{(i)}) = sumlimits_{i = 1}^{m}{- mathcal{L}(hat y^{(i)},y^{(i)})} ag{6})

    在统计学里面,有一个方法叫做最大似然估计,即求出一组参数,使这个式子取最大值,也就是说,使得这个式子 (sumlimits_{i= 1}^{m}{- mathcal{L}(hat y^{(i)},y^{(i)})}) 取最大值,可以将负号移到求和符号的外面,即:(- sumlimits_{i =1}^{m}{mathcal{L}(hat y^{(i)},y^{(i)})}),由于训练模型时,目标是让成本函数最小化,所以我们不是直接用最大似然概率,而是要去掉这里的负号,最后为了方便,可以对成本函数进行适当的缩放,我们就在前面加一个额外的常数因子 (frac{1}{m}),这样我们就推导出了前面给出的 logistic 回归的成本(代价)函数(cost function),并且我们希望最小化(minimize)它:

    (J(w,b) = frac{1}{m} sumlimits_{i = 1}^{m}{mathcal{L}(hat y^{(i)},y^{( i)})} = - frac{1}{m} ; sumlimits_{i=1}^{m} ; y ; mathrm{log} ; hat{y} + (1 - y) ; mathrm{log} ; (1 - hat{y}) ag{7})

    总结一下,为了最小化成本函数 (J(w,b)),我们从 logistic 回归模型的最大似然估计的角度出发,假设训练集中的样本都是独立同分布的条件下。我希望通过本节课您能更好地明白逻辑回归的损失函数,为什么是那种形式,明白了损失函数的原理,希望您能继续完成课后的编程练习,祝您好运。

    以下为知识补充:

    1. 如果直接使用最大似然估计,可以使用梯度上升法求解,也就是最大化成本函数。这种情况下,当 y = 1 时,条件概率趋近于 1;当 y = 0 时,条件概率趋近于 0。

    2. 而我们模型训练时,使用的是梯度下降法,目的是最小化成本函数,所以我们对最大似然估计的成本函数取反,这样当我们使用梯度下降算法最小化成本函数时,在 y = 1 的情况下,条件概率趋近于 1;在 y = 0 的情况下,条件概率趋近于 0。

    3. 下面中 1 为 log 函数的图像



    我们用到的 log 函数是以 (e) 为底的,(e approx 2.71828 > 1),所以我们选取 2 中所示的图像

    又因为我们需要最小化损失函数,所以需要对函数取反(沿 (x) 轴对称翻转),得到 3 中所示的图像

    最后因为条件概率 (0 leq P leq 1),所以我们得到 4 中所示的图像,这就是逻辑回归中当 y = 1 时的损失函数图像

    而当 y = 0 时,需要在此基础上被 1 减去,可以再次沿 (x = 0.5) 对称翻转图像。

    3. 回顾下逻辑回归中损失函数的图像(最大似然估计损失函数的图像与下面的图像 (x) 轴对称):


    if y = 1,令 (mathcal{L}(hat{y}, y)) 最小,输出的条件概率趋近于 1

    if y = 0,令 (mathcal{L}(hat{y}, y)) 最小,输出的条件概率趋近于 0

  • 相关阅读:
    ADB 多设备中指定设备的启动
    vuex 绑定表单,多个输入框的解决办法
    vue 自动触发点击事件
    js 打印dom的所有属性
    邮件分享
    table表格 td设置固定宽度
    Echarts--Y坐标标题显示不全
    ExtJS5.0 菜鸟的第一天
    字体设置
    短信验证码+倒计时
  • 原文地址:https://www.cnblogs.com/kershaw/p/11160335.html
Copyright © 2011-2022 走看看