BatchNormalizationLayer est-il considéré comme une couche dans un réseau neuronal ? Par exemple, si nous disons que Resnet50 possède 50 couches, cela signifie-t-il que certaines de ces couches peuvent être des couches de normalisation de lot ?
Lorsque je construisais des modèles dans Keras, je le considérais comme un supplément, similaire à une couche d'exclusion ou à l'ajout d'une "couche d'activation". Mais BatchNormalization a des paramètres entraînables, donc... Je suis confus