pytorch 梯度相关知识点
文章目录
1. requires_grad2. grad_fn,grad3. with torch.no_grad()4. tensor.detach()5. 小结
1. requires_grad
如果需要为张量计算所需的梯度,那么我们就需要对张量设置requires_grad=True;张量创建的时候默认requires_grad=False
如果不设置requires_grad=True,后续计算梯度的时候就会报错 (1)requires_grad=False&默认设置
import torch
from torch import nn
# 创建一个输入x,默认设置
x = torch.ones(5)
# y = 2*x**2
y = 2*torch.dot(x,x)
# y 进行梯度返传
y.backward()
# 打印x的梯度,即x.grad
print(f"x.grad={x.
共有 0 条评论