【自动求导的使用】
对于要求导的变量x,设置require_grad == True
对于最终的函数y, 要运行反向传播 y.backward()
最终可以查看 dy / dx = x.grad
中间量的求导怎么算??
【高维求导】
假设 f 为高维函数 n to m 维,其求导可以认为是一个jaco矩阵 nxm 的
你可以输入一个m维的 dz / dy 进行反向传播
y.backward( dz / dy)
这样的话x.grad返回的就是 dz / dx
反复求导为啥不行?内部是什么原理?
【神经网络】