Je construisais un réseau neuronal dense pour prédire les mains au poker. J'ai d'abord eu un problème avec la reproductibilité, puis j'ai découvert mon vrai problème : le fait que je ne puisse pas reproduire mon code est dû à l'optimiseur adam, car avec sgd il fonctionnait. Cela signifie
model.compile(loss='sparse_categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
n'a PAS fonctionné, alors que
opti = tf.train.AdamOptimizer()
model.compile(loss='sparse_categorical_crossentropy', optimizer=opti, metrics=['accuracy'])
a travaillé avec la reproductibilité. Donc ma question est maintenant : Y a-t-il une différence en utilisant
tf.train.AdamOptimizer
y
model.compile(..., optimizer = 'adam')
parce que je voudrais utiliser le premier à cause du problème de reproduction.