Où se trouve un lien explicite entre le optimizer
et le loss
?
Comment l'optimiseur sait-il où obtenir les gradients de la perte sans un appel comme celui-ci ? optimizer.step(loss)
?
-Plus de contexte.
Lorsque je minimise la perte, je n'ai pas eu à transmettre les gradients à l'optimiseur.
loss.backward() # Back Propagation
optimizer.step() # Gardient Descent