detach() 和 torch.no_grad() 都可以实现相同的效果,只是前者会麻烦一点,对每一个变量都要加上,而后者就不用管了:

- detach() 会返回一个新的Tensor对象,不会在反向传播中出现,是相当于复制了一个变量,将它原本requires_grad=True变为了requires_grad=False

- torch.no_grad() 通常是在推断(inference)的时候,用来禁止梯度计算,仅进行前向传播。在训练过程中,就像画了个圈,来,在我这个圈里面跑一下,都不需要计算梯度,就正向传播一下。
 

而model.eval()和torch.no_grad()两者都用,因为两者有着不同的作用:

- torch.no_grad():在autograd中禁用梯度跟踪

- model.eval():更改所调用模块的forward()行为。例如,它禁用dropout,并使用测试时bn norm

Logo

汇聚全球AI编程工具,助力开发者即刻编程。

更多推荐