Il existe deux raisons pour lesquelles il faut normaliser les caractéristiques d'entrée avant de les transmettre au réseau neuronal :
Raison 1 : Si un Feature
dans le Dataset
est de grande taille par rapport aux autres, cette caractéristique de grande taille devient dominante et, par conséquent, les prédictions du réseau neuronal ne seront pas exactes.
Exemple : Dans le cas des données sur les employés, si nous considérons l'âge et le salaire, l'âge sera un nombre à deux chiffres tandis que le salaire peut avoir 7 ou 8 chiffres (1 million, etc.). Dans ce cas, le salaire dominera la prédiction du réseau neuronal. Mais si nous normalisons ces caractéristiques, les valeurs des deux caractéristiques se situeront dans la plage de (0 à 1).
Raison 2 : La propagation frontale des réseaux neuronaux implique le produit scalaire des pondérations avec les caractéristiques d'entrée. Donc, si les valeurs sont très élevées (pour les données d'image et non d'image), le calcul de la sortie prend beaucoup de temps de calcul et de mémoire. Il en va de même pendant la propagation arrière. Par conséquent, le modèle converge lentement, si les entrées ne sont pas normalisées.
Exemple : Si nous effectuons une classification d'image, la taille de l'image sera très grande, car la valeur de chaque pixel va de 0 à 255. La normalisation dans ce cas est très importante.
Voici les cas où la normalisation est très importante :
- K-Means
- K-Nearest-Neighbours
- Analyse en composantes principales (ACP)
- Descente en gradient
1 votes
Je vote pour fermer cette question comme hors sujet car elle appartient à Stats SE ou AI SE.
1 votes
Je vote pour clore cette question parce que Les questions sur la théorie de l'apprentissage automatique (ML) sont hors sujet sur Stack Overflow - candidat à l'emballage cadeau pour le Cross-Validated