pytorch 梯度相关知识点

文章目录
1. requires_grad2. grad_fn,grad3. with torch.no_grad()4. tensor.detach()5. 小结

1. requires_grad
如果需要为张量计算所需的梯度,那么我们就需要对张量设置requires_grad=True;张量创建的时候默认requires_grad=False
如果不设置requires_grad=True,后续计算梯度的时候就会报错 (1)requires_grad=False&默认设置
import torch
from torch import nn

# 创建一个输入x,默认设置
x = torch.ones(5)
# y = 2*x**2
y = 2*torch.dot(x,x)
# y 进行梯度返传
y.backward()
# 打印x的梯度,即x.grad
print(f"x.grad={x.

pytorch 梯度相关知识点最先出现在Python成神之路

版权声明:
作者:ht
链接:https://www.techfm.club/p/24456.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>