pytorch中的loss.backward()和optimizer.step()中的使用的梯度方向问题
#举例:梯度下降更新模型参数optimizer=torch.optim.SGD(model.parameters(),lr=learning_rate)#在每个训练步骤中optimizer.zero_grad()#清零梯度output=model(input)loss=loss_function(output,target)loss.backward()#计算梯度optimizer.step()#