Comment obtenir la mémoire globale utilisée pour un job spark. Je ne suis pas en mesure d'obtenir le paramètre exact auquel nous pouvons nous référer pour récupérer la même chose. J'ai consulté l'interface utilisateur de Spark, mais je ne suis pas sûr du champ auquel nous pouvons nous référer. En outre, dans Ganglia, nous avons les options suivantes : a) Mémoire tampon b) Mémoire cache c) Mémoire libre d) Mémoire partagée e) Espace d'échange libre
Impossible d'obtenir une option relative à la mémoire utilisée. Quelqu'un a-t-il une idée à ce sujet ?