PyTorch——(5)自动梯度计算

@

声明需要进行自动梯度

未申明的变量将无法进行自动梯度
申明方法有两种

# 在创建完成后,申明自动梯度
x = torch.ones(1)
x.requires_grad()
# 在创建时,就申明自动梯度
w = torch.full([1],2,requires_grad=True)

进行自动梯度

也有两种方法
其中loss必须是一个标量
在这里插入图片描述
每次自动梯度后。图会被销毁,导致下次调用自动梯度失效,可以设置retain_graph= True保持图不被销毁
在这里插入图片描述

原文地址:https://www.cnblogs.com/long5683/p/14702152.html