1.2.9&1.2.10 【Deep Learning翻译系列】Logistic Regression Gradient Descent 对数几率回归的梯度下降
我们按如下方式设置了对数几率回归,z=wTx+b,z=wTx+b,a=y^=σ(z),a=y^=σ(z),L(a,y)=−(1−y)log(1−y^)−ylog(y^).L(a,y)=−(1−y)log(1−y^)−ylog(y^).在对数几率回归中,我们想要做的是修改参数w和b,以减少L。我们已经描述了在单个训练示例中实际计算损失的四个传播步骤,现在让我们谈谈如何反向计算导数。因为我们想做的