打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
PyTorch自动求导:Autograd

PyTorch中,所有神经网络的核心是autograd包。autograd包为张量上的所有操作提供了自动求导机制。它是一个在运行时定义(define-by-run)的框架,这意味着反向传播是根据代码如何运行来决定的,并且每次迭代可以是不同的。

张量

张量:n维向量

torch.Tensor是这个包的核心类。如果设置它的属性.requires_gradTrue,那么它将会追踪对于该张量的所有操作。当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad属性。

x = torch.ones(2, 2, requires_grad=True #创建一个张量并设置requires_grad=True用来追踪其计算历史print(x)

要阻止一个张量被跟踪历史,可以调用.detach()方法将其与计算历史分离,并阻止它未来的计算记录被跟踪。

为了防止跟踪历史记录(和使用内存),可以将代码块包装在 with torch.no_grad():中。在评估模型时特别有用,因为模型可能具有 requires_grad = True 的可训练的参数,但是我们不需要在此过程中对他们进行梯度计算。

还有一个类对于autograd的实现非常重要:Function

TensorFunction 互相连接生成了一个无圈图(acyclic graph),它编码了完整的计算历史。每个张量都有一个 .grad_fn 属性,该属性引用了创建 Tensor自身的Function(除非这个张量是用户手动创建的,即这个张量的 grad_fnNone )。

如果需要计算导数,可以在Tensor上调用.backward()。如果Tensor 是一个标量(即它包含一个元素的数据),则不需要为 backward()指定任何参数,但是如果它有更多的元素,则需要指定一个 gradient参数,该参数是形状匹配的张量。

y = x + 2  # 对这个张量做一次运算

y是计算的结果,所以它有grad_fn属性。

z = y * y * 3 # 对y进行更多操作out = z.mean()#print(z, out)

.requires_grad_(...)原地改变了现有张量的requires_grad标志。如果没有指定的话,默认输入的这个标志是False

a = torch.randn(2, 2)a = ((a * 3) / (a - 1))print(a.requires_grad)a.requires_grad_(True)print(a.requires_grad)b = (a * a).sum()print(b.grad_fn)

梯度

梯度:方向导数,函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。

现在开始进行反向传播,因为out 是一个标量,因此 out.backward()out.backward(torch.tensor(1.))等价。

out.backward()

输出导数d(out)/dx

print(x.grad)

我们的得到的是一个数取值全部为4.5矩阵

计算步骤:

数学上,若有向量值函数 y =f(x ),那么 y 相对于 x 的梯度是一个雅可比矩阵:

通常来说,torch.autograd是计算雅可比向量积的一个“引擎”。根据链式法则,雅可比向量积:

雅可比向量积的这一特性使得将外部梯度输入到具有非标量输出的模型中变得非常方便。

现在我们来看一个雅可比向量积的例子:

x = torch.randn(3, requires_grad=True)y = x * 2while y.data.norm() < 1000: y = y * 2print(y)

在这种情况下,y不再是标量。torch.autograd不能直接计算完整的雅可比矩阵,但是如果我们只想要雅可比向量积,只需将这个向量作为参数传给backward

v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)y.backward(v)print(x.grad)

也可以通过将代码块包装在 with torch.no_grad():中,来阻止autograd跟踪设置了.requires_grad=True的张量的历史记录。

print(x.requires_grad)print((x ** 2).requires_grad)with torch.no_grad(): print((x ** 2).requires_grad)

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
pytorch学习笔记(二):gradient
还不会使用PyTorch框架进行深度学习的小伙伴,看过来
Pytorch autograd,backward详解
PyTorch 之 Checkpoint 机制解析
PyTorch中的Autograd
深度学习之PyTorch实战(1)
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服