Je suis récemment tombé sur tf.nn.sparse_softmax_cross_entropy_with_logits et je n'arrive pas à comprendre quelle est la différence par rapport à tf.nn.softmax_cross_entropy_with_logits.
C'est la seule différence que la formation des vecteurs y
être un chaud codé lors de l'utilisation d' sparse_softmax_cross_entropy_with_logits
?
La lecture de l'API, j'ai été incapable de trouver une autre différence par rapport à l' softmax_cross_entropy_with_logits
. Mais pourquoi avons-nous besoin de la fonction supplémentaire alors?
Ne devrait pas softmax_cross_entropy_with_logits
produire les mêmes résultats que l' sparse_softmax_cross_entropy_with_logits
, si elle est fournie avec un chaud codé les données sur la formation/les vecteurs?