Pytorch实践—-04Back Propagation反向传播

学习
刘二大人《PyTorch深度学习实践》 B站地址:B站链接
问题1:通过损失的计算对权重进行更新,对于复杂的网络应当怎么去做呢? 通过前馈和反向传播
问题2:在每一层结束引入非线性变换函数的意义是? 为了提高模型的复杂度和泛化程度
import torch

x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]

w = torch.Tensor([1.0])
w.requires_grad = True

def forward(x):
return x * w

def loss(x, y):
y_pred = forward(x)
return (y_pred - y) ** 2

print('predict (before training)', 4, forward(4).item())
for epoch in

Pytorch实践—-04Back Propagation反向传播最先出现在Python成神之路

版权声明:
作者:zhangchen
链接:https://www.techfm.club/p/17983.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>