https://zhuanlan.zhihu.com/p/142668996
前段时间看过一些矩阵求导的教程,在看过的资料中,尤其喜欢斯坦福大学CS231n卷积神经网络课程中提到的Erik这篇文章。循着他的思路,可以逐步将复杂的求导过程简化、再简化,直到发现其中有规律的部分。话不多说,一起来看看吧。
撰文 | Erik Learned-Miller
翻译 | 写代码的橘子
来源 | 橘子AI笔记(ID:datawitch)
本文旨在帮助您学习向量、矩阵和高阶张量(三维或三维以上的数组)的求导方法,以及如何求对向量、矩阵和高阶张量的导数。
01. 简化,简化,再简化
在求关于数组的导数时,大部分困惑都源自于我们想要一次同时做好几件事。这“几件事”包括同时对多个元素求导、在求和符号下求导以及应用链式法则。至少在我们积累丰富的经验之前,想要同时做这么多件事情是很容易犯错的。
1.1 写出矩阵中单个元素的表达式
为了简化给定的计算,有一种方法是:写出输出中单个标量元素的表达式,这个表达式只包含标量变量。一旦写出了输出中单个标量元素与其他标量值的表达式,就可以使用标量的微积分求导方法,这比同时进行矩阵的求和、求导要容易得多。
例子 假设我们有一个长度为C的列向量 ,它是由 行 列的矩阵 与长度为 的向量 计算得到的:
式(1)假设我们想求 对 的导数。完整的求导过程需要计算 中的每一个元素对 中的每一个元素的(偏)导数,在这种情况下,我们会算出 个元素,因为 中有 个元素而 中有 个元素。
让我们先从计算其中一个元素开始,比如, 中的第3个元素对 中的第7个元素求导。也就是说,我们要计算
也就是一个标量对另一个标量求导。
在求导之前,我们要先写出 的表达式。根据矩阵-向量乘法的定义,矩阵 的第3行与向量 的点积就是 的值。
式(2)此时,我们已经将原始矩阵方程式(1)简化为了一个标量方程,从而更容易计算所需的导数。
1.2 去掉求和符号
虽然我们可以尝试直接求式(2)的导数,但包含求和符号( )或连乘符号( )的表达式在求导时很容易出错。为了确保万无一失,在刚开始的时候最好去掉求和符号,把各项相加的表达式写出来。我们可以写出以下表达式,下标由“1”开始
当然,这个表达式中包括了含有 的项,这一项正是我们求导需要的项。现在不难看出,在求 对 的偏导数时,我们只关心这个表达式中的一项, 。由于其他项都不包括 ,他们对 的导数都是0。由此,我们写出
式(3)-式(6)通过把关注点放在y中的一个元素对x中的一个元素的求导过程,我们尽可能地简化了计算。以后当你在矩阵求导计算中产生困惑时,也可以试着将问题简化到这个最基本的程度,这样便于看清哪里出了问题。
1.2.1 完成求导:雅可比矩阵
别忘了,我们的终极目标是计算 中每个元素对 中每个元素的导数,这些导数总共有 个。以下矩阵可以表示所有这些导数:
在这种特殊情况下,它被称为雅可比矩阵(Jacobian maxtirx),但这个术语对理解我们的目的而言并不那么重要。
注意,对于公式
对 的偏导数可以简单地用 来表示。如果挨个儿检查整个矩阵中的所有元素,就不难发现,对所有的 和 来说,都有
也就是说,偏导数的矩阵可以表示为
现在可以看出,这个矩阵当然就是矩阵 本身。
因此,推导了这么半天,我们终于能得出,对
求 对 的导数相当于
2. 如果是行向量该怎么算
在使用不同的神经网络库时,留意权重矩阵、数据矩阵等矩阵的具体表达形式是非常重要的。例如,如果一个数据矩阵 包含许多不同的向量,那么,在这个矩阵中,是一个行向量表示数据集中的一个样本,还是一个列向量表示一个样本?
在第一部分的例子中,我们计算的向量 是一个列向量。然而,当 是行向量的时候你也得明白该怎么算。
2.1 第二个例子
假设 是含有 个元素的行向量,它是由含有 个元素的行向量 与 行 列的矩阵 计算得到的:
虽然 和 中的元素数量都和之前一样,但矩阵 的形状相当于我们在第一个例子中使用的矩阵 的转置(transpose)。尤其是因为我们现在是矩阵 左乘 ,而不是之前的右乘,现在的矩阵 必须是第一个例子中矩阵 的转置。
在这个例子中,写出 的表达式
会得到
注意这个例子中的元素序号与第一个例子中相反。如果写出完整的雅可比矩阵,我们仍然可以得出
式(7)3. 超过二维的情形该怎么算
现在假设一个与前两部分密切相关的情形,如下式
在这个情况下, 沿一个坐标轴变化,而 沿两个坐标轴变化。因此,整个导数自然会是一个三维数组。在这里,我们避免使用“三维矩阵”这样的术语,因为尚不清楚矩阵乘法和其他矩阵运算在三维数组中是如何定义的。
在处理三维数组的时候,尝试去找出展示它们的方法可能会带来不必要的麻烦。相反,我们应该简单地用表达式写出结果,用这些表达式可以计算出所需三维数组中的任何元素。
让我们继续以标量导数的计算开始,比如y中的一个元素 和 中的一个元素 。我们先用其他标量写出 的表达式,这个表达式还要体现出 在其计算中所起的作用。
然而,我们发现 在 的计算中没有起到任何作用,因为
式(8)也就是说
不过, 对 中第3列元素求导的结果一定是非零的。例如 对 的偏导数为
式(9)其实仔细看式(8)就很容易发现这一点。
一般情况下,当 中元素的下标等于 中元素的第二个下标时,这个偏导数就是非零的,反之则为零。我们由此写出:
除此以外,三维数组中的其他元素都是0。如果用 表示 对 求导得出的三维数组
其中
但是 中的其他项都为0。
最终,如果我们定义一个新的二维数组
就可以看出,我们需要的所有关于 的信息实际上都可以用 来储存,也就是说, 的非零部分其实是二维的,而不是三维的。
以紧凑的形式表示导数数组对于神经网络的高效实现而言至关重要。
4. 有多条数据该怎么算
前面的例子已经是很好的求导练习了,但如果需要用到多条数据,也就是多个向量 堆叠在一起构成矩阵 时,又该如何计算呢?我们假设每个单独的 都是一个长度为 的行向量,矩阵 是一个 行 列的二维数组。而矩阵 ,和之前的例子一样,是一个 行 列的矩阵。 的定义如下
它是一个 行 列的矩阵。因此, 的每一行将给出一个与输入 的相应行相关的行向量。
按照我们写出给定元素表达式的方法,可以写出
我们马上就能从这个式子中看出,对于偏导数
只有 的时候计算结果才不为零。也就是说,因为 中的每一个元素都只对 中相应的那一行求导, 与 的不同行之间的偏导数都为0。
我们可以进一步发现
式(10)完全不依赖于我们比较的是 和 的哪一行。
事实上,矩阵 完整包含了所有的偏导数——我们只需要根据式(10)和下标来找到我们想要的特定偏导数。
如果用 表示 中的第 行,用 表示 中的第 行,可以发现
正是对之前式(7)的一个简单的普遍化形式。
5. 向量和矩阵中的链式法则
我们已经通过几个例子学会了一些基本形式的计算,现在通过链式法则把这些例子结合在一起。再次假设 和 是两个列向量,让我们从下式开始
尝试计算 对 的导数。我们可以简单地观察到两个矩阵 和 的乘积就是另一个矩阵 ,因此可以写出
然而,我们想通过链式法则来定义中间结果,以观察在非标量求导过程中是如何应用链式法则的。
我们把中间结果定义为
于是有
然后我们可以运用链式法则写出
为了确保我们确切地知道该式的含义,再次采用每次分析一个元素的老办法,从 中的一个元素和 中的一个元素开始:
右边的乘积该怎么解释呢?链式法则的思想是将 对每个标量中间变量的导数与中间变量对 的导数相乘。特别地,如果 有 个元素,那么可以写出
回忆之前关于向量对向量求导的计算方法,发现
其实是 ,而
其实是 。所以可以写出
这就是用 中的元素写出的求导表达式,至此我们得出了答案。
综上所述,我们可以用链式法则来表示向量和矩阵的导数,只需要注意:
- 清楚说明中间结果和表示中间结果的变量,
- 表示出最终导数中各个元素的链式法则,
- 对链式法则表达式中的中间结果适当求和。
参考资料:
http://cs231n.stanford.edu/vecDerivs.pdf