Keras charge les données sur le GPU lot par lot (noté par l'auteur aquí ).
Pour les petits ensembles de données, cela est très inefficace. Existe-t-il un moyen de modifier Keras ou d'appeler directement les fonctions de Theano (après avoir défini le modèle dans Keras) pour permettre de déplacer d'emblée tous les lots vers le GPU et d'effectuer l'entraînement en utilisant les lots déjà présents dans la mémoire du GPU ?
(Quelqu'un a posé la même question sur la liste Keras il y a quelques semaines, mais n'a pas encore reçu de réponse).