Je crois que la réponse dépend du scénario.
Considérons le NN (réseau neuronal) comme un opérateur F, de sorte que F(entrée) = sortie . Dans le cas où cette relation est linéaire, de sorte que F(A * entrée) = A * sortie alors vous pouvez choisir soit de laisser l'entrée et la sortie non normalisées dans leur forme brute, soit de les normaliser toutes les deux pour éliminer A. Il est évident que cette hypothèse de linéarité est violée dans les tâches de classification, ou dans presque toutes les tâches qui produisent une probabilité, où F(A * entrée) = 1 * sortie
En pratique, la normalisation permet aux réseaux non adaptables d'être adaptables, ce qui est crucial pour les expérimentateurs/programmeurs. Néanmoins, l'impact précis de la normalisation dépendra non seulement de l'architecture/algorithme du réseau, mais aussi de la priorité statistique pour l'entrée et la sortie.
De plus, les réseaux neuronaux sont souvent mis en œuvre pour résoudre des problèmes très difficiles dans une boîte noire, ce qui signifie que le problème sous-jacent peut avoir une formulation statistique très pauvre, ce qui rend difficile l'évaluation de l'impact de la normalisation et fait que l'avantage technique (devenir adaptable) domine sur son impact sur les statistiques.
Au sens statistique, la normalisation supprime la variation qui est considérée comme non causale dans la prédiction de la sortie, afin d'empêcher le NN d'apprendre cette variation comme un prédicteur ( NN ne voit pas cette variation et ne peut donc pas l'utiliser. ).
1 votes
Je vote pour fermer cette question comme hors sujet car elle appartient à Stats SE ou AI SE.
1 votes
Je vote pour clore cette question parce que Les questions sur la théorie de l'apprentissage automatique (ML) sont hors sujet sur Stack Overflow - candidat à l'emballage cadeau pour le Cross-Validated