Juste l'ajout de cette précision pour que tous ceux qui défile vers le bas autant atleast est juste, car il ya tellement de nombreuses réponses erronées upvoted.
Diansheng de réponse et JakeJ de réponse .
Une nouvelle réponse posté par Shital Shah est une encore meilleure et plus complète de la réponse.
Oui, logit
comme une mathématique de la fonction dans les statistiques, mais l' logit
utilisé dans le contexte des réseaux de neurones est différent. Statistiques logit
n'a même pas de sens ici.
Je ne pouvais pas trouver un formel definitoin n'importe où, mais logit
signifie en gros:
Les premières prédictions qui sortent de la dernière couche du réseau de neurones.
1. C'est le tenseur sur lequel vous appliquez l' argmax
fonction pour obtenir les prédit de classe.
2. C'est le tenseur qui vous alimentez l' softmax
fonction pour obtenir les probabilités pour prédire la classe.
Aussi, à partir d'un tutoriel sur officiel tensorflow site web:
Logits Couche
La dernière couche de notre réseau de neurones est les logits de la couche, qui sera de retour les valeurs brutes de nos prédictions. Nous avons créer une couche dense avec 10 neurones (un pour chaque classe cible de 0 à 9), avec un linéaire d'activation (par défaut):
logits = tf.layers.dense(inputs=dropout, units=10)
Si vous êtes encore confus, la situation est comme ceci:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
où, predicted_class_index_by_raw
et predicted_class_index_by_prob
seront égaux.
Un autre nom pour raw_predictions
dans le code ci-dessus est - logit
.
Comme pour le pourquoi logit
... je n'ai aucune idée. Désolé.
[Edit: Voir cette réponse pour l'historique des motivations derrière le terme.]
Trivia
Bien que, si vous le souhaitez, vous pouvez appliquer de la statistique logit
de probabilities
qui sortent de l' softmax
fonction.
Si la probabilité d'une certaine classe est - p
,
Puis le journal de la cote de la classe est - L = logit(p)
.
Aussi, la probabilité de cette classe peut être récupéré p = sigmoid(L)
, à l'aide de l' sigmoid
fonction.
Pas très utile pour calculer la log-odds.