Je comprends toutes les étapes informatiques de la formation d'un réseau neuronal avec descente de gradient en utilisant forwardprop et backprop, mais j'essaie de comprendre pourquoi ils fonctionnent tellement mieux que la régression logistique.
Pour l'instant, tout ce à quoi je peux penser est :
A) Le réseau neuronal peut apprendre ses propres paramètres.
B) il y a beaucoup plus de poids que la régression logistique simple, ce qui permet de formuler des hypothèses plus complexes.
Quelqu'un peut-il expliquer pourquoi un réseau neuronal fonctionne si bien en général ? Je suis un débutant relatif.