Aurograd自动求导机制总结
PyTorch中,所有神经网络的核心是 autograd 包。autograd 包为tensor上的所有操作提供了自动求导机制。它是一个在运行时定义(define-by-run)的框架,这意味着反向传播是根据代码如何运行来决定的,并且每次迭代可以是不同的.
理解自动求导机制可以帮助我们编写更高效、简洁的程序,并且可以方便我们进行调试。
Aurigrad如何实现自动求导?
Autograd是一个反向自动微分系统。autograd 会记录一个图表,记录在执行操作时创建tensor数据的所有操作,并提供一个有向无环图,其叶子是输入tensor,根是输出tensor。通过从根到叶跟踪此图,就可以使用链式法则自动计算梯度。
Tensor
torch.Tensor 是这个包的核心类。如果设置它的属性 requires_grad 为 True,那么它将会追踪对于该tensor的所有操作。当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个tensor的所有梯度将会自动累加到grad属性。
阻止一个tensor被跟踪历史,可以调用 .detach() 方法将其与计算历史分离,并阻止它未来的计算记录被跟踪。
Tensor 和 Function 互相连接生成了一个无圈图(acyclic graph),它编码了完整的计算历史。每个tensor都有一个 grad_fn 属性,该属性引用了创建 Tensor 自身的Function(除非这个tensor是手动创建的, grad_fn 是 None )。
import torch
x = torch.ones(2,3, requires_grad=True)print(x)
输出:
tensor([[1.,1.,1.],[1.,1.,1.]], requires_grad=True)
对这个tensor添加运算:
y = x +2print(y)print(y.grad_fn)
输出:
tensor([[3.,3.],[3.,3.]], grad_fn=<AddBackward0>)<AddBackward0 object at 0x0000021F4129C850>
y是计算的结果,有grad_fn属性。
对y进行更多操作
z = y *2
out = z.mean()print(z, out)
输出:
tensor([[6.,6.],[6.,6.]], grad_fn=<MulBackward0>) tensor(6., grad_fn=<MeanBackward0>)
.requires_grad_()
原地改变了现有tensor的
requires_grad
标志。如果没有指定的话,默认输入的这个标志是 False。
a = torch.randn(2,2)
a =((a *2)/(a -2))print(a.requires_grad)
a.requires_grad_(True)print(a.requires_grad)
b =(a * a).sum()print(b.grad_fn)
输出:
FalseTrue<SumBackward0 object at 0x0000021F46A2AA00>
梯度
下面进行反向传播,因为
out
是一个标量,因此
out.backward()
和
out.backward(torch.tensor(1.))
等价。
out.backward()
输出导数 d(out)/dx
print(x.grad)
输出:
tensor([[0.3333,0.3333,0.3333],[0.3333,0.3333,0.3333]])
torch.autograd
是计算雅可比向量积的一个“引擎”。雅可比向量积的特性使外部梯度输入到具有非标量输出的模型中变得非常方便。
现在我们来看一个雅可比向量积的例子:
x = torch.randn(2, requires_grad=True)print(x)
y = x *2while y.data.norm()<1000:
y = y *2print(y)
输出:
tensor([-1.2877,-0.5659], requires_grad=True)
tensor([-1318.5631,-579.4386], grad_fn=<MulBackward0>)
在这种情况下,y 不再是标量。
torch.autograd
不能直接计算完整的雅可比矩阵,但是如果我们只想要雅可比向量积,只需将这个向量作为参数传给 backward:
v = torch.tensor([1,1], dtype=torch.float)
y.backward(v)print(x.grad)
输出:
tensor([1024.,1024.])
还可以通过将代码块包装在
with torch.no_grad():
中,来阻止autograd跟踪设置了
.requires_grad=True
的tensor的历史记录。
print(x)print(x.requires_grad)print((x **2).requires_grad)with torch.no_grad():print((x **2).requires_grad)
输出:
tensor([-1.2877,-0.5659], requires_grad=True)TrueTrueFalse
保存Tensor
一些操作需要在前向传递期间保存中间结果,以便执行反向传递。例如,函数y = x**2 ,需要保存输入的梯度。
可以使用
save_for_backward()
在前向传播期间保存tensor并使用
saved_tensors
在后向传递期间检索它们。
对于 PyTorch 定义的操作(例如
torch.pow()
),tensor会根据需要自动保存。
grad_fn
可以通过查找以前缀开头的属性来探索某个out保存了哪些tensor_saved。
import torch
x = torch.randn(2, requires_grad=True)
y = x.pow(2)print(x.equal(y.grad_fn._saved_self))print(x is y.grad_fn._saved_self)
输出:
TrueTrue
在前面的代码中,引用与
x y.grad_fn._saved_self
相同的 Tensor 对象。但有一些情况不太相同。例如:
x = torch.randn(2, requires_grad=True)
y = x.exp()print(y.equal(y.grad_fn._saved_result))# Trueprint(y is y.grad_fn._saved_result)# False
输出:
TrueFalse
在后台,为了防止引用循环,PyTorch在保存时打包了张量,并将其解包到不同的张量中以供读取。在这里,您从访问中获得的张量
y.grad_fn._saved_result
是一个不同的张量对象y(但它们仍然共享相同的存储)。
一个tensor是否会被打包到一个不同的张量对象中取决于它是否是它自己的
grad_fn
的输出。
局部禁用梯度计算
Python 有几种机制可以在本地禁用梯度计算:
要在整个代码块中禁用梯度,有no-grad和inference mode。为了从梯度计算中更细粒度地排除子图,可以设置
requires_grad
tensor的字段。
evaluation mode ( nn.Module.eval())方法不是用于禁用梯度计算,但经常因为名字与禁止梯度计算相混淆。
设置requires_grad
requires_grad
requires_grad
是一个标志,默认为 false除非包含在
nn.Parameter
中,它允许从梯度计算中细粒度地排除子图。它在向前和向后传播中都生效:
在前向传播过程中,只有至少一个输入tensor需要
grad
时,才会将操作记录在后向图中。在后向传播
.backward()
过程中,只有
requires_grad=True
的叶tensors才会有梯度积累到它们的
.grad
字段中。
多线程 Autograd
autograd 引擎负责运行计算反向传递所需的所有反向操作。
#定义一个在不同线程中使用的train函数deftrain_fn():
x = torch.ones(2,2, requires_grad=True)# forward
y =(x +5)*(x +5)*0.1# backward
y.sum().backward()# 优化器更新# 编写线程代码来驱动train_fn
threads =[]for _ inrange(10):
p = threading.Thread(target=train_fn, args=())
p.start()
threads.append(p)for p in threads:
p.join()print(threads)
输出:
[<Thread(Thread-5, stopped 11328)>,<Thread(Thread-6, stopped 13548)>,<Thread(Thread-7, stopped 14440)>,<Thread(Thread-8, stopped 12720)>,<Thread(Thread-9, stopped 2416)>,<Thread(Thread-10, stopped 3820)>,<Thread(Thread-11, stopped 10688)>,<Thread(Thread-12, stopped 4620)>,<Thread(Thread-13, stopped 2200)>,<Thread(Thread-14, stopped 14916)>]
Aurograd自动求导机制还有许多强大的功能,可参考官方文档torch.autograd。
版权归原作者 Daylight.. 所有, 如有侵权,请联系我们删除。