Pytorch和TensorFlow的softmax函数使用区别小记

【背景】

Pytorch官方给的CNN模型中,在最后的分类层中并没有使用softmax函数、

【异同】

pytorch里面提供了一个损失函数: torch.nn.CrossEntropyLoss,这里面整合了softmax函数,如果使用这个交叉熵,则不应该在最后一层再使用softmax进行激活。这类似tensorflow中的tf.nn.softmax_cross_entropy_with_logits函数的功能,但是在命名上具有迷惑性。

如果在绘制AUC时候,需要拿到每个类别的分类则在pytorch中应该如下

outputs = model(img)  # 调用网络中的forward()方法
out_pro = torch.nn.functional.softmax(outputs)  # 计算输出分类的概率,2类的和为1

 

你可能感兴趣的:(深度学习,深度学习,softmax)