Pytorch 分类loss总结

在分类问题中,Pytorch提供了多种函数,那么哪种函数是使用softmax;哪些函数不用使用softmax就可以直接套loss;又有哪些函数使用logsoftmax?这里面有一些细节需要我来研究,我找到了pytorch在github上面的这部分代码,以此文记录一下我的学习历程。 分类问题有两种思路: 第一种需要对标签进行处理 NLLLoss(_WeightedLoss) 输入 这个函数的作用适合于样本数量不均衡的情况下,其中_WeightedLoss的维度是(样本个数,类别个数),数值代表了给每个类别分配的权重。这个函数接收到输入后,会给出每个类别的对数概率(因而比较适合样本不均匀的条件)。(也就是说如果你使用NLLoss的话,你可以在forward部分直接在最后一个隐层设定为(类别维度),然后套上一个LogSoftmax层就好了。) 预测 对于predict阶段代码中也给出了方法,可以 去看看~