安装
https://pytorch.org/tutorials/beginner/introyt/autogradyt_tutorial.html
梯度
loss.backward()
我们可以看到已经为每个学习权重计算了梯度,但是权重保持不变,因为我们还没有运行优化器。
optimizer.step()
权重发生了变化.
https://pytorch.org/tutorials/beginner/introyt/autogradyt_tutorial.html
梯度
loss.backward()
我们可以看到已经为每个学习权重计算了梯度,但是权重保持不变,因为我们还没有运行优化器。
optimizer.step()
权重发生了变化.
反向传播
重新计算梯度, 运行优化器
更新模型权重.