Spark Standalone :
Dans ce mode, je me suis rendu compte que vous exécutez vos nœuds maître et travailleur sur votre machine locale.
Cela signifie-t-il qu'une instance de YARN s'exécute sur ma machine locale ? En effet, lorsque j'ai installé Spark, il était livré avec Hadoop et généralement YARN est également livré avec Hadoop, n'est-ce pas ? Et dans ce mode, je peux essentiellement simuler une version plus petite d'un cluster complet.
Mode local de l'étincelle :
C'est la partie qui me laisse perplexe. Pour le faire fonctionner dans ce mode, je fais val conf = new SparkConf().setMaster("local[2]")
.
Dans ce mode, il n'utilise aucun type de gestionnaire de ressources (comme YARN), n'est-ce pas ? Il exécute simplement le job Spark dans le nombre de threads que vous fournissez à "local[2]"\
?