Tag: 交叉熵

TensorFlow:sparse_softmax_cross_entropy_with_logits和softmax_cross_entropy_with_logits有什么区别?

我最近遇到了tf.nn.sparse_softmax_cross_entropy_with_logits ,我无法弄清楚与tf.nn.softmax_cross_entropy_with_logits相比有什么不同。 使用sparse_softmax_cross_entropy_with_logits时,训练向量y必须是单热编码的唯一区别吗? 读取API我无法find与softmax_cross_entropy_with_logits相比有任何其他区别…但为什么我们需要额外的function呢? softmax_cross_entropy_with_logits是否与softmax_cross_entropy_with_logits产生相同的结果,如果提供了一个热门编码的训练数据/向量?